Medtech
Santé humaine
Édito
Stocker toute la mémoire de l’Humanité sur quelques kilos d’ADN…
Edito du Sénateur René Trégouët, en partenariat avec RTFlash
Selon une étude du Cabinet IDC, le monde devrait produire en 2015 environ 8 595 exaoctets (un exaoctet est égal à un milliard de milliards d’octets, soit 1018 Octets), contre seulement 130 en 2005, soit une multiplication par 66 de la quantité annuelle de donnés produites au cours de la dernière décennie.
Sur la période 2013-2020, cette masse de données produites chaque année dans le monde devrait, toujours selon IDC, être encore multipliée par douze et passer de 3,5 à 44 zetaocets. Le taux de numérisation de l’information, qui n’était encore que de 25 % il y a 15 ans, est à présent de 99 % et la montée en puissance des communications de machine à machine et l’explosion de l’Internet des objets – avec 200 milliards d’objets connectés en 2020 – représenteront plus du quart des données générées à la fin de la décennie et plus de la moitié à l’horizon 2025. On mesure mieux la croissance phénoménale du stock de données mondial quand on sait que ce dernier a été généré à 90 % au cours de ces deux dernières années…
Face à cette augmentation exponentielle de la quantité de données produites, notre civilisation numérique a de plus en plus de peine à suivre en matière de stockage informatique de masse. Certes, depuis trente ans, la capacité moyenne de stockage de nos disques durs a été multipliée par un million (passant de 5Mo et 5 To) mais cette course à l’augmentation de la taille de nos mémoires va bientôt se heurter à des limites redoutables, liées aux lois de la physique elle-même.
C’est pourquoi chercheurs et ingénieurs explorent de nombreuses pistes dans l’espoir de parvenir à de véritables ruptures technologiques qui permettraient de multiplier par plusieurs ordres de grandeur la capacité de stockage dont nous allons avoir besoin pour emmagasiner ces masses presque inconcevables d’informations. Le défi technologique est d’autant plus ardu qu’il est quadruple : il s’agit en effet de concevoir de nouveaux outils de stockage non seulement plus performants mais également plus sobres en énergie, plus fiables sur la durée et si possible moins coûteux à fabriquer !
Leur source d’inspiration est – comme souvent – ce que la nature a fait de mieux dans le domaine, à savoir l’acide désoxyribonucléique, plus connu sous le nom d’ADN. Une macromolécule biologique composée de deux brins appelés polymères. En clair, de deux longues chaînes de petites molécules différentes accrochées les unes aux autres dans un ordre précis et qui permettent d’encoder ainsi toute l’information génétique nécessaire au développement et au fonctionnement d’un être vivant.
Depuis trois ans, les avancées se multiplient dans ce domaine stratégique : une équipe britannique dirigée par le généticien George Church de l’Université d’Harvard -, avait fait sensation en 2012 en réussissant à encoder sous forme de 55 000 minuscules brins d’ADN, un livre de 300 pages, comportant 53 326 mots et une dizaine d’illustrations. Le tout représentait 5,56 mégabits d’informations, soit 600 fois plus que la plus grande quantité d’informations stockée sur ADN jusqu’à lors ! Grâce à ces travaux, Church montra qu’il était possible de stocker un bit par paire de bases. On comprend mieux l’extraordinaire saut technologique que représente ce mode de stockage sur ADN quand on sait qu’avec seulement un gramme d’ADN, il est théoriquement possible de stocker jusqu’à 700 To de données, soit l’équivalent de 14 336 disques Blu-ray actuels de 50 Go, chacun représentant un poids total de 140 kg…
Début 2013, une autre équipe, de l’Université de Cambridge, dirigée par Nick Goldman et Ewan Birney, a réussi à convertir en ADN une photo haute définition ainsi qu’une version MP3 du célèbre discours “I have a dream” de Martin Luther King mais aussi l’article scientifique où Watson et Crick ont décrit pour la première fois la double hélice de l’ADN et l’ensemble des sonnets de William Shakespeare -soit près de six millions de bits- (Voir The Guardian).
Mais contrairement à l’équipe de Georges Church, qui avait conservé un système binaire et dont les inscriptions sous forme d’ADN comportaient quelques petites erreurs, les chercheurs anglais ont donné la priorité à la fiabilité de l’encodage et ont opté pour un code trinaire composé de 0, de 1 et de 2.
Une fois la séquence établie, elle a été traduite en « lettres » génétiques, c’est-à-dire en A, T, C ou G, qui correspondent aux éléments de base de l’ADN (adénine, thymine, cytosine et guanine). La dernière étape de cette « écriture » a consisté à réaliser la synthèse chimique de ces « phrases ». C’est là que les chercheurs ont déployé des trésors d’ingéniosité pour parvenir à produire, sans erreur de transcription, de l’ADN en chaîne longue. Ils ont notamment découpé les informations en petites séquences, chacune reprenant à la fois le début de la séquence précédente, la fin de la suivante et intégrant des informations de contrôle chargées de s’assurer de la localisation exacte des « bits » inscrits.
Finalement, les 115 000 brins d’ADN synthétique obtenus (environ le double de l’équipe d’Harvard), ont été lyophilisés, ce qui permet de les lire facilement et de les conserver très longtemps. « L’une des grandes propriétés de l’ADN est que vous n’avez pas besoin d’énergie pour le stocker. Il suffit simplement de l’entreposer dans un endroit froid, sec et sombre pour le conserver pendant des siècles, voire plus longtemps. Nous en avons la preuve grâce à l’ADN de mammouth, qui s’est parfaitement conservé dans ces conditions », souligne Ewan Birney.
Reste la question du coût, aujourd’hui très élevé, du stockage sur ADN. Mais, sur ce point, Birney rappelle que le coût du séquençage de l’ADN a déjà été divisé par cent depuis une dizaine d’années et que ce type de stockage est déjà rentable pour certaines catégories d’informations qui doivent être archivées de manière fiable plus de 50 ans.
Interrogé pour savoir si l’ADN utilisée pourrait présenter un danger pour la santé, si elle était incorporée accidentellement dans l’organisme d’un être humain, Nick Goldman souligne pour sa part que « L’ADN que nous avons créé ne peut pas être intégré accidentellement dans un génome ; il utilise en effet un code complètement différent de celui utilisé par les cellules des organismes vivants. Dans l’hypothèse où vous vous retrouveriez avec cet ADN à l’intérieur de votre organisme, il serait tout simplement dégradé et éliminé ».
De leur côté, des chercheurs de l’Université Harvard, du laboratoire européen d’Heidelberg et de l’EPFZ (Ecole Polytechnique Fédérale de Zurich) ont effectué récemment une nouvelle percée qui montre qu’il est possible de concevoir des « Mémoires à ADN » qui conservent les informations sur une longue durée (Voir Extreme Tech).
Cette équipe a réussi à stocker sur un fragment d’ADN la Charte fédérale suisse de 1921 et la méthode des théorèmes mécaniques d’Archimède. Ces chercheurs ont ensuite placé ce fragment d’ADN dans une microbille de verre mesurant 150 nanomètres de diamètre. Ils ont enfin soumis l’ensemble à des conditions physiques et thermiques extrêmes, afin de simuler un vieillissement accéléré de plusieurs milliers d’années, et ont apporté la preuve que ces données restaient parfaitement lisibles, même après ce test. Selon Nick Goldman, « Le stockage massif de données sur ADN sera suffisamment fiable et bon marché pour être utilisé à grande échelle dans une dizaine d’années ».
L’intérêt de ces recherches n’a évidemment pas échappé aux géants de l’informatique qui sont confrontés au défi du stockage de la quantité croissante d’informations générées par nos sociétés numériques. Microsoft, quant à lui, a déjà développé un langage spécifique baptisé DNA Stand Displacement Toll, qui peut être utilisé pour concevoir des séquences génétiques capables de faire fonctionner des circuits électroniques (Voir Microsoft Research).
Mais ces spectaculaires avancées n’empêchent pas les chercheurs de continuer à explorer d’autres voies car la molécule d’ADN, dont chacun des bruns est un polymère appelé polynucléotide, ne constitue pas forcément la meilleure solution de stockage dans tous les cas de figure. C’est pourquoi il est indispensable d’étudier également les propriétés d’autres polymères, synthétiques ceux-là, en matière de stockage d’informations
Dans ce domaine, l’équipe de l’Institut Charles-Sadron de Strasbourg (CNRS) et de l’Institut de chimie radicalaire de l’Université d’Aix-Marseille, dirigée par Jean-François Lutz, vient de réussir une première mondiale en parvenant à inscrire un court message, en code binaire sur un polymère entièrement synthétique (Voir Nature).
« Nous avons écrit ces données avec des polyamides, mais nous aurions très bien pu le faire avec des polyesters », explique Jean-François Lutz qui poursuit « L’apport principal de nos travaux réside dans la méthode que nous avons mise au point et qui permet d’agencer les monomères de manière précise pour créer un message ». Dans leur polymère, les chercheurs français ont réussi à encoder l’équivalent d’une phrase composée de quelques mots. Comme avec l’ADN, ce message est lisible par séquençage. Mais il peut également être très rapidement effacé car le polymère utilisé est stable à température ambiante mais s’autodétruit au-dessus de 60 degrés Celsius. Concrètement, les chercheurs ont utilisé trois monomères. Deux de ces monomères représentent les chiffres 0 et 1 du langage binaire et peuvent être utilisés de manière interchangeable au cours de la synthèse. Un troisième monomère de type nitroxide est intercalé entre les bits afin de faciliter l’écriture et la lecture de la séquence codée.
Pour l’instant, l’encodage reste artisanal et chaque message doit être synthétisé à la main, monomère par monomère, sur une chaîne en croissance, une opération évidemment fastidieuse qui prend une journée. Mais à terme, il est tout à fait envisageable d’automatiser ces opérations d’encodage en les confiant à des robots. Quant à la lecture, elle s’effectue à l’aide d’un spectromètre de masse, qui ne met que quelques minutes à décrypter les données. Ces travaux de pointe ont également montré qu’à température ambiante, le polymère se conservait plusieurs mois et que, compte tenu de la grande stabilité des molécules employées, il pouvait très probablement avoir une durée de vie de plusieurs années…
Prochaine étape de cette équipe française : parvenir avant 2020 à stocker des messages de plusieurs mégaoctets à l’aide de cette technologie prometteuse. Le CNRS, qui a fait breveter cette méthode, souligne par ailleurs que celle-ci pourrait également trouver des applications dans le domaine de l’authentification et de la traçabilité de certains produits ou substance de grande valeur. Il est en effet possible d’imaginer l’apposition de véritables « codes-barres moléculaires » sur certains objets à protéger. Ainsi « marqués, ces objets deviendraient pratiquement impossibles à contrefaire ».
Mais parallèlement à ces recherches très futuristes, d’autres voies technologiques beaucoup plus classiques sont loin d’avoir dit leur dernier mot. C’est notamment le cas de l’enregistrement magnétique des données qui a effectué récemment des progrès spectaculaires : il y a un an, en mai 2014, Sony a ainsi pulvérisé le record de densité sur cassette magnétique : il atteint désormais 18,5 To par pouce carré (soit un peu moins de 3 To par centimètre carré). Cette capacité de stockage est 74 fois plus grande que les cassettes généralement utilisées pour l’archivage actuel et permet désormais de stocker jusqu’à 185 To sur une seule cassette, soit 18 fois le contenu total de la bibliothèque du Congrès des Etats-Unis !
Pour atteindre de telles performances, Sony est parvenu à concevoir un nouveau procédé de fabrication de bande magnétique. Il est désormais capable de pulvériser de manière uniforme des cristaux magnétiques de 7,7 nanomètres sur un film en polymère mesurant moins de 5 micromètres.
De son côté, Seagate mise sur une technologie encore plus prometteuse, baptisée HAMR (Heat Assisted Magnetic Recording ou Enregistrement magnétique assisté thermiquement). Cette technique repose sur l’utilisation de matrices magnétiques composées de particules en alliage fer et platine et devrait permettre, dès 2020, de fabriquer des disques durs de 20 To.
Grâce à ce saut technologique, les chercheurs pensent pouvoir gagner un facteur 100 et atteindre une densité de stockage phénoménale, de l’ordre de 50 térabits par pouce carré. Avec de telles mémoires, il serait par exemple possible de stocker la totalité du contenu imprimé de la bibliothèque du Congrès américain sur un seul disque dur…
Le principe de l’HAMR consiste à augmenter la capacité de stockage en chauffant la zone où les bits de données sont en cours d’enregistrement avec un faisceau laser, ce qui rend celle-ci plus facile à écrire. Les données inscrites sont ensuite fixées grâce à un refroidissement rapide.
On le voit, plus d’un demi-siècle après la conférence mémorable que donna le grand physicien Richard Feynman en décembre 1959 (« Il y a plein de place en bas »), les idées géniales et visionnaires de ce géant de la science sont en train de devenir réalité : la maîtrise de la matière et de la lumière à l’échelle atomique et des mécanismes moléculaires de stockage de l’information génétique devraient en effet nous permettre de stocker de manière durable et fiable l’ensemble du savoir humain sur seulement quelques centaines de disques de type HAMR et dans quelques kilos d’ADN (Ces deux modes de stockage étant sans doute appelés à coexister en raison de leur complémentarité).
Mais une fois de plus, seule l’alliance des sciences de la matière, de l’information et de la vie, dans le cadre de la mise en œuvre de nouveaux concepts transdisciplinaires et d’une nouvelle articulation entre recherche fondamentale et recherche appliquée, a pu rendre possible ce saut scientifique technologique et culturel majeur qui permettra à chacun d’entre nous d’avoir accès instantanément à toute la mémoire du monde.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat