Le PDG d’OpenAI, Sam Altman, avertit que les autres développeurs d’IA travaillant sur des outils de type ChatGPT ne mettront pas de limites de sécurité – et le temps presse



Le PDG d’OpenAI, Sam Altman, pense que l’intelligence artificielle a des avantages incroyables pour la société, mais il s’inquiète également de la façon dont les mauvais acteurs utiliseront la technologie.

Dans une interview accordée à ABC News cette semaine, il a averti « qu’il y aura d’autres personnes qui ne mettront pas certaines des limites de sécurité que nous mettons en place ».

OpenAI a rendu public son chatbot IA ChatGPT fin novembre, et cette semaine, il a dévoilé un successeur plus performant appelé GPT-4.

D’autres entreprises se précipitent pour proposer des outils de type ChatGPT, ce qui donne à OpenAI beaucoup de concurrence à craindre, malgré l’avantage d’avoir Microsoft comme gros investisseur.

« C’est compétitif là-bas », a déclaré Ilya Sutskever, cofondateur et scientifique en chef d’OpenAI, à The Verge dans une interview publiée cette semaine. « GPT-4 n’est pas facile à développer… il y a beaucoup d’entreprises qui veulent faire la même chose, donc d’un point de vue concurrentiel, vous pouvez voir cela comme une maturation du domaine. »

Sutskever expliquait la décision d’OpenAI (la sécurité étant une autre raison) de révéler peu de choses sur le fonctionnement interne de GPT-4, amenant beaucoup à se demander si le nom « OpenAI » avait toujours un sens. Mais ses commentaires étaient également une reconnaissance de la multitude de rivaux qui mordillent les talons d’OpenAI.

Certains de ces rivaux pourraient être beaucoup moins préoccupés qu’OpenAI par la mise en place de garde-corps sur leurs équivalents de ChatGPT ou GPT-4, a suggéré Altman.

« Une chose qui m’inquiète, c’est que… nous n’allons pas être le seul créateur de cette technologie », a-t-il déclaré. «Il y aura d’autres personnes qui ne mettront pas certaines des limites de sécurité que nous lui imposons. La société, je pense, a un temps limité pour comprendre comment réagir à cela, comment réglementer cela, comment le gérer.

OpenAI a partagé cette semaine un document de «carte système» qui décrit comment ses testeurs ont délibérément tenté de faire en sorte que GPT-4 offre des informations dangereuses, telles que la fabrication d’un produit chimique dangereux à l’aide d’ingrédients de base et de fournitures de cuisine, et comment l’entreprise a résolu les problèmes. avant le lancement du produit.

De peur que quiconque ne doute de l’intention malveillante des mauvais acteurs qui se tournent vers l’IA, les escrocs par téléphone utilisent désormais des outils d’IA de clonage de la voix pour ressembler à des proches qui ont désespérément besoin d’une aide financière et réussissent à soutirer de l’argent aux victimes.

« Je suis particulièrement inquiet que ces modèles puissent être utilisés pour la désinformation à grande échelle », a déclaré Altman. « Maintenant qu’ils s’améliorent dans l’écriture de code informatique, [they] pourrait être utilisé pour des cyberattaques offensives.

Considérant qu’il dirige une entreprise qui vend des outils d’IA, Altman a été particulièrement ouvert sur les dangers posés par l’intelligence artificielle. Cela peut avoir quelque chose à voir avec l’histoire d’OpenAI.

OpenAI a été créé en 2015 en tant qu’organisation à but non lucratif axée sur le développement sûr et transparent de l’IA. le nom du modèle l’indique).

Le PDG de Tesla et Twitter, Elon Musk, qui était également cofondateur d’OpenAI – et qui lui a fait un don considérable – a critiqué ce changement, notant le mois dernier: « OpenAI a été créé en tant qu’open source (c’est pourquoi je l’ai nommé « Open » AI), une société à but non lucratif pour servir de contrepoids à Google, mais maintenant c’est devenu une société à source fermée et à profit maximum effectivement contrôlée par Microsoft. »

Début décembre, Musk a qualifié ChatGPT de « bien effrayant » et a averti: « Nous ne sommes pas loin d’une IA dangereusement puissante. »

Mais Altman a averti le public tout autant, sinon plus, alors même qu’il poursuit le travail d’OpenAI. Le mois dernier, il s’est inquiété de « comment les gens du futur nous verront » dans une série de tweets.

« Nous avons également besoin de suffisamment de temps pour que nos institutions sachent quoi faire », a-t-il écrit. « La réglementation sera essentielle et prendra du temps à comprendre… avoir le temps de comprendre ce qui se passe, comment les gens veulent utiliser ces outils et comment la société peut co-évoluer est essentiel. »





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *