À propos de NAS

logo beeznest

Un NAS est un Network-Attached Storage. C’est-à-dire un serveur de fichiers, mais qui ne fait vraiment que cela (enfin, au départ, puisqu’on verra ensuite que ça peut se compliquer beaucoup).

Au départ, c’est seulement une solution abordable pour remplacer en Ethernet les SAN (Storage Area Network), qui font la même chose mais sur de la fibre optique, bien plus chère à l’usage (pour diverses raisons[1]). Il existe même du matériel qui fait les deux (SAN + NAS, par exemple en Ethernet pour les longues distances ou le grand nombre de clients et en Fiber Channel pour les plus courtes).

Dans les deux cas, le but est de rassembler la problématique du stockage en un seul endroit, et ainsi pouvoir l’allouer de manière plus souple, plus fiable,plus économique, et plus gérable (exemple: simplification des backups). La virtualisation par exemple en bénéfie très rapidement et très naturellement.

Un certain nombre de protocoles ou de technologies, viennent rapprocher les deux systèmes. Je pense ici à des protocoles comme iSCSI, AoE[2], qui font passer à travers le réseau un protocole standard utilisé d’habitude pour les disques locaux. Et l’OS s’en accomode d’habitude bien, souvent à travers une implémentation ad-hoc dans le kernel.

Enfin, tout un tas de protocoles exotiques existent, souvent orientés vers un OS ou un type de matériel Multimédia, mais pas toujours, permettent d’augmenter l’utilisabilité du tout. Je pense en particulier à uPNP, DLNA, TFTP, FTP, SMB, NFS, rsync, …

Souvent, la sécurité n’est pas gérée au niveau du NAS, mais au sein du reste de l’infrastructure.

Puisque ses fonctionnalités sont supposées être plutôt restreintes, on attendra d’un NAS une fiabilité et des performances exceptionnelles. On y trouvera donc souvent des systèmes de redondance (RAID, alimentations électriques, load-balancing réseau, …) ainsi que des systèmes pour améliorer (aggrégation de liens réseau, fine-tuning des disques et des NIC, …) et/ou diagnostiquer les performances de tous les éléments (disques, contrôleurs, OS, réseau, client, …).

Et il en existe maintenant pour tous les budgets. Depuis les systèmes prévus pour être installés sur des PC de récupération jusqu’aux NAS d’entreprise avec support, redondance complète (haute disponibilité) et sélection de tout le matériel le plus cher en passant par des systèmes hyper économes en énergie pour le salon de Monsieur Tout Le Monde (qu’on appelle alors souvent Media Server).

Linux, de par sa légerté proverbiale et ses fonctionnalités est assez intéressant pour ce genre d’usage, tout comme FreeBSD. Solaris (et OpenSolaris), toutefois apporte des avantages non négligeables sous la forme de ZFS (avec snapshots, compression et déduplication) et DTrace (notamment).

Et ce n’est pas fini…

[1] La fibre optique est plus contraignante au niveau câblage. Elle coûte plus cher, et est moins souple (on peut moins la plier) mais moins sensible aux interférences. De plus, il faut du matériel spécialisé, différent, pour la fibre ou l’Ethernet (ex.: switches). Les cartes Ethernet (même GbE) ne coûtent virtuellement plus rien. Les serveurs en sont même toujours équipés de plusieurs d’office, tandis que rares sont les serveurs équipés de HBA FC (qui coûtent eux aussi très cher). [2] ATA over Ethernet, très peu répandu à cause de brevets détenus par l’un ou l’autre vendeur (principalement Coraid).