Pinned toot

Elle est excellente cette illustration de longliveirony.com/.

En fait l'objectif est simple, il suffit d'inverser la logique/pyramide actuelle.
C'est normal qu'elle ne tienne plus en équilibre depuis le temps, à force de marcher sur la tête.

Bon ça implique des changements plus ou moins importants dans nos modes de vie, c'est certain.

Mais c'est essentiel, au vu de l'État actuel des choses (environnement, etc)
Et pas plus mal 🙂

mamot.fr/media/J_zED0puO8hS8cm

Je note que très très majoritairement on utilise toujours le même œil… (vous aussi ça vous fait bizarre quand vous changez ? :D)

Personnellement je m'essaye actuellement à essayer dans changer, voir dans quel situation ça pourrait être plus pratique, notamment pour garder le gauche ouvert avec la vision d'ensemble en plus du droit dans le viseur 🤔

Show thread

Merci pour les partages et réponses, ça commence à avoir l'air représentatif 🙂
(jusqu'à hier c'était très équilibré 50/50 entre les deux yeux, c'était étonnant)

Et donc d'après fr.wikipedia.org/wiki/%C5%92il, dans la population 1/3 à l'œil gauche directeur, 2/3 l'œil droit.
Ici l'œil utilisé majoritairement c'est 62% de droit (57/91) et 37% de gauche.
Soit à peu près autant (on doit être dans la marge d'erreur). Intéressant, je suppose qu'on utilise donc majoritairement son œil directeur 🤔

Show thread

Pour sa future version 2.0, prévoit une refonte très importante du code, avec pas mal de nouveau ajouts à la clé et une base de travail bien plus propre et simple qu'avant.
Les détails: community.hedgedoc.org/t/regar

Cool 😃

ping @hedgedoc

En photo, vous utilisez majoritairement le viseur avec quel œil ?

Show thread

from twitter (Blender stuff) 

"10 years ago my (back then) beefy workstation had to wait for a while to render this character with Multires in Blender Internal. Today, Cycles X makes editing shaders and lighting real time. On my laptop. 🐲"
nitter.fdn.fr/PabloVazquez_/st
(Video inside the link)

🤩

Ceci nous donne une consommation moyenne de ~38Go écrits/jours, ce qui me semble être une moyenne particulièrement élevée.
Un usage plus classique sera probablement bien en dessous.

Show thread

Endurance théorique de mon SSD* "pas cher" (mémoire QLC, la moins résistante): 200To écrits.
En 7 mois et 1861h de fonctionnement:
- 10To lus (ça on s'en fiche)
- 8,6 To écrits.
Sachant qu'au début j'ai fait des benchmarks dessus, en écrivant quelques dizaines de fois ~5Go, c'est un peu surestimé.

Extrapolation de la durée de vie restante (en arrondissant au dessous pour prendre de la marge) : 11 ans.

Et vu ce qu'il y a là ⬆️, ça peut être nettement plus.

* Un Intel 660p

Show thread

Cycles X
code.blender.org/2021/04/cycle

🎇 Cycles is ten years old today 🎉 🎂

And… Brecht and Sergey are doing their magic again✨ with a fresh, brand new modern architecture that is lightning fast 🎆

Cycles 10 years' gift being like: Yyyyyyyyyeeeeaah ! 🎉 🚀🚀

(Already a x4-8 reduction in most preliminary benchmarks…)

🎉

btrfs / déduplication 

Et donc après correction : y'avait une (grosse) erreur dans mon opération, avec une déduplication qui se faisait sur les snapshots (ce qui est inutile, elles sont déjà dédupliquées).

Et donc, la vraie valeur, pour 5816 fichiers traités (sur les 92000) : environ 150 à 200Mo de mémoire utilisés.
Et un fichier .dat de 630Mo.

ping @sebsauvage @aplufr

Show thread

btrfs / déduplication 

Ah pour info dans le manuel y'a la formule de calcul de la taille du fichier .dat, si ça vous intéresse.
("Hashfile Size = Num Hashes X 90 + Num Files X 270", je vous laisse regarder les détails si besoin)

Et bien en effet, ça donne pile 2,4Go dans mon cas.

Note: je me suis rendu compte qu'il passait aussi sur les snapshots, donc en fait c'est plutôt 3To et 276 000 fichiers 😅

Show thread

btrfs / déduplication 

En fait, plus je le lance, plus il consomme ? 😅
5,5Go maintenant.
Pourtant, même si c'est le même fichier .dat, je ne travaille que sur un sous-ensemble 🤔 😅

Show thread

btrfs / déduplication 

Ah intéressant, en mode verbeux on a des infos du genre: «Skipping small file [fichier]"» quand il fait les hash des nouveaux fichiers.

Il a l'air d'éviter de "perdre" du temps sur les petits fichiers.
Est-ce que ça fait perdre (beaucoup ?) en déduplication ? 🤔
Peut-être que ça ne concerne que des fichiers d'une taille similaire à la taille de l'extend, où ça n'aurait pas d'intérêt (face à une déduplication de fichiers).

Show thread

btrfs / déduplication 

Mise à jour: j'ai dû couper puis relancer l'opération.
Et j'ai pu observer plus longuement le processus, et… la pointe est à ~4,1Go de RAM.
"Un peu" plus 😅

Show thread

btrfs / déduplication 

Et le fichier de cache des hash (XXX.dat, qui est une base de donnée) fait 2,4Go.
J'en déduis que l'essentiel de la consommation en RAM vient de la taille de ce fichier ? 🤔

Show thread

Vous savez s'il est possible de couper les notifications d'une extension dans ?
(et/ou de lui retirer la permission pour les notifications)

btrfs / déduplication 

En complément: c'est redescendu à 500~600Mo actuellement

Show thread

btrfs / déduplication 

Déduplication d'environ 1,2 To de données, 92000 extends, sur un système de fichier et avec duperemove : environ 2,8Go de mémoire (en pointe).

Voilà, pour info 🙂

Question de curiosité: c'est toujours valable en 2021 ce problème avec «ZFS» ?

The 'Hidden' Cost of Using ZFS for Your Home NAS
louwrentius.com/the-hidden-cos

Note: je ne connais pas bien, et je n'utilise pas, n'hésitez pas à expliquer le fonctionnement :)

Show older
La Quadrature du Net - Mastodon - Media Fédéré

Mamot.fr est une serveur Mastodon francophone, géré par La Quadrature du Net.