[News] Les IA auraient consommé toutes les connaissances humaines : quelles conséquences ? 🤔
Modérateur : Modérateurs
[News] Les IA auraient consommé toutes les connaissances humaines : quelles conséquences ? 🤔
Les intelligences artificielles (IA) ont atteint un seuil critique: elles ont épuisé la quasi-totalité des connaissances humaines disponibles pour leur apprentissage. Elon Musk, parmi d'autres, tire la sonnette d'alarme sur cette impasse technologique.
Cette situation pousse les chercheurs et entreprises à explorer des alternatives, notamment les données synthétiques, générées par les IA elles-mêmes. Si cette solution semble prometteuse, elle soulève des questions majeures sur la...
Re: [News] Les IA auraient consommé toutes les connaissances humaines : quelles conséquences ? 🤔
bonjour,
De nouveaux algorithmes commencent à être utilisés. Ils se servent des mêmes données, mais ne les traitent plus uniquement de manière statistique. Grâce à la Théorie Algorithmique de l’Information, qui a évolué en 2024 en Dynamique de l’Information Algorithmique, on a pu quantifier une approximation de la complexité algorithmique d’une donnée (Zenil, Kiani, Tegner), et accéder à une approche du graal de la Distribution Universelle. Avec la puissance de calcul actuelle, une exploration systématique de toute la combinatoire possible de données de 15 à 20 bits à l’aide de milliards de Machines de Turing a été réalisée (CTM ou méthode du théorème de codage). Puis avec une algorithmie adaptée, on a pu combiner des séries de ces courtes données pour en traiter de plus grandes (BDM ou méthode de la décomposition par blocs). On a ainsi contourné une impossibilité de calculer la complexité algorithmique, en l’approximant, ce qui suffit à surclasser complètement les méthodes statistiques actuelles. Cette impossibilité de calculer précisément la complexité algorithmique avait entraîné son désintérêt.
La CTM permet de repérer ce que j’appelle les formules magiques, ces données (ou programmes, les termes sont interchangeables) qui sont des compressions non basées sur les régularités statistiques. Pi est un exemple type. Ses décimales infinies semblent incompressibles car privées de régularités. Pourtant la formule de Pi fait 30 lignes de code (il y a des records de formules courtes pour Pi).
Une autre compréhension des données est maintenant possible. Une autre classification, et une autre probabilité d’apparition aussi (une donnée courte est plus probable d’apparaître qu’une longue). Ce qui permet une autre analyse, et c’est ce qui a permis d’agir sur et de reprogrammer certains réseaux biologiques responsables de maladies complexes. Ce qui a donné les molécules miracles, très chères, capables de soigner ou stabiliser certains cancers (thérapies ciblées). Les applications sur l’IA sont évidentes, et permettraient de simuler une sorte d’intuition objective, artificielle. Car une analyse uniquement statistique sur une donnée isolée et/ou incomplète ne donne aucune piste quant à son origine, le chercheur est responsable à 100% de son interprétation et des choix de continuation de recherche.
Ce qui ne résout pas du tout le problème du contrôle des IAs, qui reste d’actualité, et s’amplifie même.
De nouveaux algorithmes commencent à être utilisés. Ils se servent des mêmes données, mais ne les traitent plus uniquement de manière statistique. Grâce à la Théorie Algorithmique de l’Information, qui a évolué en 2024 en Dynamique de l’Information Algorithmique, on a pu quantifier une approximation de la complexité algorithmique d’une donnée (Zenil, Kiani, Tegner), et accéder à une approche du graal de la Distribution Universelle. Avec la puissance de calcul actuelle, une exploration systématique de toute la combinatoire possible de données de 15 à 20 bits à l’aide de milliards de Machines de Turing a été réalisée (CTM ou méthode du théorème de codage). Puis avec une algorithmie adaptée, on a pu combiner des séries de ces courtes données pour en traiter de plus grandes (BDM ou méthode de la décomposition par blocs). On a ainsi contourné une impossibilité de calculer la complexité algorithmique, en l’approximant, ce qui suffit à surclasser complètement les méthodes statistiques actuelles. Cette impossibilité de calculer précisément la complexité algorithmique avait entraîné son désintérêt.
La CTM permet de repérer ce que j’appelle les formules magiques, ces données (ou programmes, les termes sont interchangeables) qui sont des compressions non basées sur les régularités statistiques. Pi est un exemple type. Ses décimales infinies semblent incompressibles car privées de régularités. Pourtant la formule de Pi fait 30 lignes de code (il y a des records de formules courtes pour Pi).
Une autre compréhension des données est maintenant possible. Une autre classification, et une autre probabilité d’apparition aussi (une donnée courte est plus probable d’apparaître qu’une longue). Ce qui permet une autre analyse, et c’est ce qui a permis d’agir sur et de reprogrammer certains réseaux biologiques responsables de maladies complexes. Ce qui a donné les molécules miracles, très chères, capables de soigner ou stabiliser certains cancers (thérapies ciblées). Les applications sur l’IA sont évidentes, et permettraient de simuler une sorte d’intuition objective, artificielle. Car une analyse uniquement statistique sur une donnée isolée et/ou incomplète ne donne aucune piste quant à son origine, le chercheur est responsable à 100% de son interprétation et des choix de continuation de recherche.
Ce qui ne résout pas du tout le problème du contrôle des IAs, qui reste d’actualité, et s’amplifie même.
pourquoi pas?