Je partage ton inquiétude. En fait, j'espère que ce violent retour en arrière dont je parlais sur l'autre fil nous sauvera de l'IA qui me semble être une technologie dont les risques dépassent de loin les avantages. Je n'y connais rien mais j'ai l'impression qu'on prépare notre propre obsolescence, creuse notre propre tombe en développant cette technologie. Des images de Blade Runner et de Terminator me viennent en tête.
Pendant longtemps, je n'avais jamais pris au sérieux le scénario "Terminator", aussi bien pour des raisons technologiques qu'éthiques, mais les guerres récentes ont tout bouleversé. Outre l'utilisation de l'IA pour du ciblage (notamment par Israël), la technologie des drones a énormément progressé et des verrous éthiques sont tombés. Avant, la France et les pays d'Europe s'étaient interdits de développer des munitions "rôdeuses", dronisées ou téléopérées, mais l'avantage militaire est tel qu'on est obligés d'y venir après avoir pris beaucoup de retard par rapport à d'autres pays ou même des groupes armés (daech, houthis, etc.) qui en possèdent. L'objectif des grands pays est de disposer d'essaims de drones (aériens, navals et même sous-marins) capables d'attaques coordonnées. A plus long terme, l'enjeu est la robotisation du champ de bataille et le développement de ce qu'on appelle, dans le jargon militaire, des SALA : Systèmes d'Armes à Létalité Autonome, c'est-à-dire des robots capables de tirer et dotés d'une IA capables de "décider" elles-mêmes d'ouvrir le feu ou pas. La France et les pays d'Europe n'avaient aucune envie de partir dans cette direction mais les USA et la Chine, qui sont les plus avancés dans ce domaine, vont s'en doter à court/moyen terme. La Russie le fera également et nous n'aurons donc probablement pas d'autre choix que suivre le mouvement... On n'est plus du tout dans "IA et Littérature" mais je me permets d'en parler pour souligner que les perspectives de l'IA sont immenses, et très inquiétantes ! Et aussi, pendant qu'on développe tous ces systèmes, on délaisse d'autres enjeux cruciaux comme les enjeux environnementaux ou sociétaux...
Oui, mais ce que l'IA ne pourra jamais reproduite est le "sentiment", l'émotion très personnelle d'un auteur.
L'ordinateur peut reproduire, anticiper les tendances avec les données d'hier et d'aujourd'hui mais il restera froid et neutre.
Bien sur que se serait, celons moi limité au données en possession de l'IA, chaque situation peut amener une émotion particulière, l'IA qui reproduire les traits de caractère d'un homme sera tout comme l'IA des jeux d’échecs informatiques capable d’envisager, de simuler un tas de situation possible, sauf que les situations possible d'un jeu d’échec sont mathématiquement calculables, ce qui je pense n'est pas la cas pour des situations de vies humaines.
Pendant longtemps, je n'avais jamais pris au sérieux le scénario "Terminator", aussi bien pour des raisons technologiques qu'éthiques, mais les guerres récentes ont tout bouleversé. Outre l'utilisation de l'IA pour du ciblage (notamment par Israël), la technologie des drones a énormément progressé et des verrous éthiques sont tombés. Avant, la France et les pays d'Europe s'étaient interdits de développer des munitions "rôdeuses", dronisées ou téléopérées, mais l'avantage militaire est tel qu'on est obligés d'y venir après avoir pris beaucoup de retard par rapport à d'autres pays ou même des groupes armés (daech, houthis, etc.) qui en possèdent. L'objectif des grands pays est de disposer d'essaims de drones (aériens, navals et même sous-marins) capables d'attaques coordonnées. A plus long terme, l'enjeu est la robotisation du champ de bataille et le développement de ce qu'on appelle, dans le jargon militaire, des SALA : Systèmes d'Armes à Létalité Autonome, c'est-à-dire des robots capables de tirer et dotés d'une IA capables de "décider" elles-mêmes d'ouvrir le feu ou pas. La France et les pays d'Europe n'avaient aucune envie de partir dans cette direction mais les USA et la Chine, qui sont les plus avancés dans ce domaine, vont s'en doter à court/moyen terme. La Russie le fera également et nous n'aurons donc probablement pas d'autre choix que suivre le mouvement... On n'est plus du tout dans "IA et Littérature" mais je me permets d'en parler pour souligner que les perspectives de l'IA sont immenses, et très inquiétantes ! Et aussi, pendant qu'on développe tous ces systèmes, on délaisse d'autres enjeux cruciaux comme les enjeux environnementaux ou sociétaux...
J'ai envie d'ajouter :
La technologie avance si vite, les capacités d'évolutions de la technologie sont tellement exponentielles, qu'on peut ce dire qu'une chose commencera à ce préparer bientôt alors qu'elle est déjà en cour à son stade finale !
Oui, mais ce que l'IA ne pourra jamais reproduite est le "sentiment", l'émotion très personnelle d'un auteur.
L'ordinateur peut reproduire, anticiper les tendances avec les données d'hier et d'aujourd'hui mais il restera froid et neutre.
Bien sur que se serait, celons moi limité au données en possession de l'IA, chaque situation peut amener une émotion particulière, l'IA qui reproduire les traits de caractère d'un homme sera tout comme l'IA des jeux d’échecs informatiques capable d’envisager, de simuler un tas de situation possible, sauf que les situations possible d'un jeu d’échec sont mathématiquement calculables, ce qui je pense n'est pas la cas pour des situations de vies humaines.
Malgré qu'ici le contraire sot affirmé : https://hellofuture.orange.com/fr/…
Oui, mais ce que l'IA ne pourra jamais reproduite est le "sentiment", l'émotion très personnelle d'un auteur.
L'ordinateur peut reproduire, anticiper les tendances avec les données d'hier et d'aujourd'hui mais il restera froid et neutre.
Bien sur que se serait, celons moi limité au données en possession de l'IA, chaque situation peut amener une émotion particulière, l'IA qui reproduire les traits de caractère d'un homme sera tout comme l'IA des jeux d’échecs informatiques capable d’envisager, de simuler un tas de situation possible, sauf que les situations possible d'un jeu d’échec sont mathématiquement calculables, ce qui je pense n'est pas la cas pour des situations de vies humaines.
L'inventeur de l'informatique, Allan Turing, pensait le contraire : le cerveau humain étant fini, le nombre de ses configurations possibles (définies par l'état de chaque neurone dans le cerveau) est fini et donc le cerveau humain serait équivalent à une machine. Infiniment plus complexe que celle que la technologie pouvait produire dans les années 50 mais globalement de même nature. Turing avait prophétisé que la technologie n'arriverait jamais à produire quelque chose au fonctionnement aussi complexe que le cerveau humain mais arriverait à produire des machines d'un fonctionnement suffisamment complexe pour l'imiter de manière crédible et qu'un temps viendrait où la différenciation serait si difficile qu'on ne ferait plus intuitivement la différence. C'est le concept des réplicants du film "Blade Runner"... Cela arrivera-t-il ? Peut-être pas car ramener le comportement humain à des états de configuration neuronale est assez réducteur, et sans doute erroné. Mais il ne faut pas sous-estimer la capacité de l'humain à se dégrader lui-même. Quand on voit, notamment en Asie et au Japon, des personnes heureuses d'échanger des messages d'amour avec un avatar logiciel, parce que ça comble un vide dans leur vie, ça fait très peur...
Vous devez être connecté pour poster des messages : S'identifier ou Devenir membre