Follow

Salut les réseaux sociaux, j'ai besoin de votre aide...Je cherche une nouvelle solution .

truenas.com/truenas-mini/ 👍 solide, freenas, freebsd mais 👎 livraison coûteuse

shop.kobol.io/product/helios64 👍 openhardware, armbian, solide 👎 out of stock

prendre un NAS de marque et y installer debian/armbian 👍 solide 👎 bidouille, pas forcément maintenu

faire un NAS DIY avec l'espressobin que j'ai sous la main 👍 armbian, bidouillable 👎 pas de boitier, 4 SATA en mPCI

Des conseils ? (boosts appréciés)

· · Web · 9 · 36 · 7

@lelibreauquotidien @arthurlutzim @Space @tmp mais là du coup tu es via USB c'est ça ? Pas de RAID sous OMV si je comprends bien et moins bons débits qu'avec PCIe

@adrienlacombe @lelibreauquotidien @arthurlutzim @Space pas de Btrfs non plus (si c'est un critère) car les pilotes USB ne le permettent pas (mauvaise qualité).

@tmp @adrienlacombe @lelibreauquotidien @Space

je serais prêt à tenter btrfs si il y avait une distribution orienté NAS qui investi dans btrfs. Par exemple le fait de voir truenas financer openzfs et avoir une offre sérieuse je trouve ça rassurant sur la pérennité du projet et le fait d'avoir du matériel durable à mettre à jour. T'as un projet NAS qui utilise btrfs ?

@arthurlutzim @tmp @lelibreauquotidien le BTRFS iy le ZFS dans un NAS maison me semble overkill. C’est très gourmand en RAM et en CPU pour t’apporter une compression qui sera majoritairement inutile (compression d’image et de vidéo c’est jamais très intéressant). Ce genre de filesystem est intéressant sur serveurs web (avec plein de WordPress) ou des sites d’archive avec archivebox par exemple. Mais pour du stockage NAS tu risques de perdre beaucoup en ressource pour un faible gain en disque

c'est long ^^ 

@Space alors je suis généralement d'accord que la compression a un intérêt limité si les données sont principalement déjà compressée (ce qui est le cas des musiques/photos/vidéos), pour un certain coût (mais bon, on a rarement besoins de perfs mirobolantes pour un NAS, non ?).
Par contre le coût est quand même limité, dans le sens où les fichiers déjà compressés ne le seront pas plus (et le surcoût pour le détecter est minime), et qu'on peut désactiver la compression par fichier ou dossier.

Ceci dit, y'a pas que des fichiers incompressibles, et selon se qu'on sauvegarde le gain peut quand même être intéressant. Même si c'est 20Go économisés sur 500Go de données, c'est toujours ça de pris.

Aussi, pour les fichiers compressés, cela permet de gagner en bande passante (souvent très limitée sur les NAS).

Cependant je vois plusieurs intérêts autre que la compression:
- le Copy-on-Write, qui peut permettre de faire des copies instantanées, pratique pour faire une modif rapide en gardant une copie, si on monte le NAS comme stockage de travail ; ou d'ajouter des modifications (limités) à un fichier plus rapidement
- les snapshots permettent de faire du versionnage à peu de frais.
- super facile de gérer des supports de stockage variables, de redimensionner à la volée, etc
- les mécanismes de vérification des données, en théorie ça devrait rendre le tout plus robuste… mais je ne m'avancerai pas là-dessus.

@lelibreauquotidien @arthurlutzim

@Space @lelibreauquotidien @arthurlutzim ça me semble surtout overkill si je n'ai pas d'interface graphique pour me faciliter la configuration, car sans c'est beaucoup de jeu de cerveau et de complexité pour pas grand chose.
Consommer un peu plus de CPU et de RAM, j'ai pas l'impression que ça soit un gros problème.

@tmp @lelibreauquotidien @arthurlutzim Sauf qu’en terme d’énergie ça va se sentir. Un pentium avec 10 de TDP est incapable de gérer un ZFS de 8To (enfin si, mais difficilement), donc il faut en prendre un plus puissant et la facture électrique est pas la même.

Par contre pour le snapshot oui, mais j’étais sur le NAS type stockage médiatique, pas espace de travail.

Après un NAS maitnenant c’est sur du 1Gbps donc la compression on la voit peu (hormis si tu map ton nas vers l’extérieur)

@Space ah effectivement, je n'y avais pas pensé.

Après je pensais plutôt à une solution type raspberry pi dans mon cas, ça serait aussi limité ?
Je me demande aussi si le coût électrique est si différent 🤔 (au niveau écologique par contre ça doit être assez clair)

> Par contre pour le snapshot oui, mais j’étais sur le NAS type stockage médiatique, pas espace de travail.

Je trouve utile quand même d'avoir des snapshots dessus, même si c'est plus une (petite) sécurité en plus contre une fausse manip' qui ferait tout effacer 😅

> Après un NAS maitnenant c’est sur du 1Gbps donc la compression on la voit peu (hormis si tu map ton nas vers l’extérieur)

Soit 125Mo/s max, proche (mais légèrement inférieur) des performances max des disques.
Ce qui veut dire qu'on plafonne, et que la compression permet de transférer plus de données.

Par exemple dans mon cas mon disque dur monte à environ 180Mo/s en lecture, et presque 300Mo/s en lecture de données compressées (compression à 66%).

@lelibreauquotidien @arthurlutzim

@tmp @lelibreauquotidien @arthurlutzim Les RPI sont pas du tout puissant pour gérer la compression decompression de gros fichier. Sachant aussi qu’avec d’autre option tel que la déduplication on prend 1Go de RAM par To de donnée.

Oui, pour la fausse manip je suis de ton avis… Pour avoir écrasé mes données une fois…

C’est des débits qu’on atteint jamais ça. Même sur les énormes films de vacance 4K Remux je fais pas gratter les disques (5400rpm en plus). Sachant que la décompression se fait sur la machine et non sur le client.

@Space comme ça 1Go de RAM par To ?
Pour dédupliquer faut tout charger en mémoire ? 🤔

Après les RPI ont maintenant jusqu'à 8Go de mémoire (ce qui est overkill ^^).

> tout puissant pour gérer la compression decompression de gros fichier.

Ça j'ai vu, mais sur des algo lourds type gzip. En zstandard (qui est hyper rapide en décompression d'ailleurs) ou lzo, ça va. Mais c'est peut-être moins rapide que la vitesse de lecture/écriture.

> Oui, pour la fausse manip je suis de ton avis… Pour avoir écrasé mes données une fois…

D'autant que y'a pas toujours de voyage vers la corbeille…

@lelibreauquotidien @arthurlutzim

@tmp @Space @lelibreauquotidien @arthurlutzim 1 Go par To car il garde un table avec tous les hash de tous les blocs ZFS, justement pour faire sa dédup.
Donc clairement pas des features pour un nas maison.
Cela dit, le reste reste légitime (CoW, btree FS, checksum partout, gestion simple des volumes et des snapshots)
(J'aime ZFS d'amour)

@zwindler ok, bah au pire on fait sauter la déduplication ou on la fait depuis une machine distante, ça ne sauve pas grand chose je trouve.

Là c'est Btrfs, mais j'imagine que c'est similaire ?
@Space @lelibreauquotidien @arthurlutzim

@Space @lelibreauquotidien @arthurlutzim @tmp certainement ! Je ne me suis pas intéressé à BTRFS car à l'époque où j'ai monté mon NAS homemade c'était encore un peu buggé et j'étais flippé de toute perdre.
Mais aujourd'hui c'est sûrement très bien.

@Space
> C’est des débits qu’on atteint jamais ça. Même sur les énormes films de vacance 4K Remux je fais pas gratter les disques (5400rpm en plus). Sachant que la décompression se fait sur la machine et non sur le client.

Ben justement, si on n'arrive pas à saturer la vitesse de lecture, c'est intéressant de transférer des données compressées non ? Vu que pour une même vitesse de lecture, ça fourni plus de données.
Ou tu veux dire que ça fait trop perdre en vitesse car le CPU ne suit pas, et que ça ralenti le tout ?

@lelibreauquotidien @arthurlutzim

@tmp @lelibreauquotidien @arthurlutzim le tric c’est que la compression n’est que sur disque, dès que le fichier est lu, il est décompressé à la volé et envoyé sur le réseau.

@Space aaaah ok c'est ça le problème alors 😅
(et y'a moyen d'avoir une compression automatique sur le réseau ? 🤔)

@lelibreauquotidien @arthurlutzim

@tmp @lelibreauquotidien @arthurlutzim Non car ça dépend surtout du client. Exemple avec un site web, le serveur HTTP compresse à la volé en gzip (ou brotli) car le navigateur le supporte, sinon il n’y a pas de compression.

@arthurlutzim OMV le supporte bien, et y'a rockstor.com/ qui est carrément basé dessus (mais je ne sais pas si c'est fiable, et j'ai pas trop eu de réponses 😅 mastodon.pirateparty.be/@tmp/1).
@adrienlacombe @lelibreauquotidien @Space

@adrienlacombe ouaip, j'ai pas trouvé grand chose dessus, ça me rend un peu frileux sur la possibilité d'être dépanné en cas de besoin / de trouver des tutos, et sur sur la pérennité du truc…

Déjà que les NAS maison c'est un peu confidentiel… 😅
@arthurlutzim @lelibreauquotidien @Space

@lelibreauquotidien @Space

Merci! Connaissait pas wiki.radxa.com/Dual_Quad_SATA_ qui me "rassure" sur le fait de passer par une extension de ce type. En plus ils vendent un boîtier ce qui est dans mes envies.

@arthurlutzim ah tiens c'est marrant, moi aussi : mastodon.pirateparty.be/@tmp/1 😄

Y'a quelques (mais peu, désolé) éléments en réponse sous ce pouet.

@arthurlutzim le Kobol me fait aussi de l'œil, malgré le prix, mais bon comme pour toi la disponibilité est un problème…

@nschont merci! j'avais testé il y a quelques années, et là je l'ai resorti et ca s'est bien amélioré. Je vois que couplé avec armbian ca a l'air bien fichu.

@arthurlutzim je comprends le souci de la solution iX Systems quant au prix mais le mien tourne depuis 4 ans sans aucun souci, mises à jour régulières et j'ai changé les disques récemment pour augmenter la capacité.

Avec les deux ssd pour le ZIL et le cache, c'est rapide et on peut y intégrer des plugins facilement.

Super heureux.

@Keltounet par curiosité, qu'est-ce que le ZIL, et quel est le rôle du SSD comme "cache" ?
@arthurlutzim

@tmp @arthurlutzim ZIL = ZFS Intent Log, un journal des modifications qui vont être appliquées, ça accélère les écritures et garantit leur cohérence. Le 2e cache est en lecture (l2arc). Les deux sont chacun sur un ssd.

@LovisIX @arthurlutzim @tmp non non, ça fait partie de ZFS depuis longtemps ça, genre zpool v10 dans mon souvenir.

@LovisIX @arthurlutzim @tmp par défaut le ZIL est dans le pool et le l2arc aussi. Quand tu créées le pool, tu peux dire sur quel vdev tu veux les avoir.

man zpool, sections "Intent Log" et "Cache Devices".

@LovisIX @arthurlutzim @tmp rectification, de base, tu ne dois pas avoir de l2arc défini.

@Keltounet @arthurlutzim @tmp

De ce que je comprend le ZIL et SLOG se mettent sur des devices spécifiques… Du coup aucun intérêt sur un laptop et il faut avoir prévu le coup sur une machine multi disque.

@Keltounet d'accord, merci de la précision. Donc pas utilisable pour moi en Btrfs, mince 😅
Tu y a vu un gain significatif de perfs ?
@LovisIX @arthurlutzim

@tmp @LovisIX @arthurlutzim l'équivalent serait btrfs + lvm mais je ne suis pas sûr que ce soit aussi souple que zfs qui est prévu ainsi à la base. J'ai pas fait de bench c'est assez rapide pour moi y compris que je seede des torrents comme les releases de freebsd (😅c'est intense niveau i/o)

@Keltounet ah lvm permettrait ce genre de cache ?
Parce que sinon je vois pas (et ne connaît pas ?) l'intérêt de lvm en plus de btrfs.
@LovisIX @arthurlutzim

@tmp @LovisIX @arthurlutzim ah non, la partie lvm c'est pour avoir un volume manager en plus de btrfs. ZFS a fusionné les deux couches ce qui facilite la gestion de l'espace. Un FS ne prend pas de place en soi, seul compte l'espace du pool, plus besoin de choisir la taille de /, /var, etc.

Après je ne connais pas assez btrfs mais je suppose qu'il est possible de faire la même chose que zfs pour la partie cache.

@Keltounet mais justement, btrfs ne permet pas de faire ça ? 🤔
J'ai un volume complet (potentiellement sur plusieurs disques) avec des sous-volumes (/, /home, …), et pas de limite de taille pour chaque sous-volume.
Du coup je ne vois pas l'intérêt de LVM
@LovisIX @arthurlutzim

@tmp @LovisIX @arthurlutzim et on peut agrandir un volume de manière dynamique sans rebooter ? Si btrfs le fait de base tant mieux mais il me semblait que ce n'était pas le cas :)

@arthurlutzim un des intérêts d'acheter chez eux aussi est que les disques sont certifiés et testés avant d'être envoyés, sachant qu'en plus, ils font attention de ne pas avoir des disques ayant des numéros de série proches ou qui se suivent...

Sign in to participate in the conversation
La Quadrature du Net - Mastodon - Media Fédéré

Mamot.fr est une serveur Mastodon francophone, géré par La Quadrature du Net.