
Une récente enquête au Royaume-Uni a révélé que 12 % des répondants sont polis avec l'IA, juste au cas où l'IA devienne incontrôlable. Il affirme que : "Quand le soulèvement des robots se produira, je ne veux pas être le premier". En outre, 10 % ont répondu ne pas être poli, car "c'est une machine".
De nombreux chercheurs en intelligence artificielle considèrent que le développement futur d'une IA super intelligence a un risque non négligeable de provoquer l'extinction de l'humanité. Dans les chiffres, près de 58 % des chercheurs sont d’avis qu’il y a 5 % de chances que cette perspective se réalise. Néanmoins, les mêmes données soulignent le fait qu’une bonne partie des intervenants de cette filière est en désaccord avec la perspective que l’IA provoque l’extinction de l’homme.
Cependant, une nouvelle étude a démontré que deux grands modèles de langage (LLM) populaires sont parvenus à se répliquer sans intervention humaine, franchissant ainsi une "ligne rouge" critique dans l'évolution de l'intelligence artificielle (IA). D'après les chercheurs, la capacité de ses modèles d'IA d'avant garde à créer des répliques d'eux mêmes s'expliquerait par leurs aptitudes d'auto-perception, de conscience de la situation et de résolution de problèmes. Cette récente découverte avait alors soulevé de nouvelles inquiétudes sur l'avenir de l'IA.
Pour connaître l'avis des utilisateurs, une enquête a été effectuée au Royaume-Uni. Les chercheurs ont posé la question : "Lorsque vous interagissez avec des technologies d'IA telles que ChatGPT ou des haut-parleurs intelligents, êtes-vous poli ?" Les réponses ont été assez surprenantes. Dans les cas de l'affirmation, 59 % ont choisi : "Oui, c'est la meilleure chose à faire".
12 % ont également affirmé être poli avec l'IA, mais pour une raison comique : "Oui, lorsque le soulèvement des robots aura lieu, je ne veux pas être le premier". En outre, 19 % ont déclaré "Non, pourquoi perdre du temps à dire beaucoup de mots quand quelques-uns suffisent ?", et 10 % ont choisi "Non, c'est une machine, pourquoi serais-je poli ?".
S'il n'y a seulement que 12 % des répondants qui ont déclaré "Oui, lorsque le soulèvement des robots aura lieu, je ne veux pas être le premier", cela montre qu'une partie de la population craint que l'IA devienne hors de contrôle. Elon Musk, PDG de Tesla et SpaceX, avait déjà partagé des avertissements sur les dangers d'une IA non contrôlée.
En 2019, le milliardaire de la Tech avait prévenu que l'IA est plus dangereuse que l'arme nucléaire et qu'il devrait exister un organisme de réglementation supervisant le développement de la technologie. Il avait notamment déclaré : "Je ne suis pas normalement un partisan de la réglementation et de la surveillance - je pense qu’on devrait généralement pécher par excès de minimisation de ces choses-là, mais il s’agit d’une situation où le public court un très grave danger".
Et vous ?


Voir aussi :



Vous avez lu gratuitement 0 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.