Le PDG d’OpenAI appelle à son tour à plus de régulation dans l’IA

Sam Altman, PDG d’OpenAI a dans un billet de blog alerté sur les dangers de l’Intelligence Artificielle. Il interpelle de ce fait les gouvernements sur la nécessité de mettre en place un système de régulation de cette industrie. Sam Altman joint ainsi sa voix à la longue liste des personnalités qui appellent à la prudence en matière d’intelligence artificielle.

Une alerte venant de la part du PDG d’OpenAI, la maison mère de ChatGPT, pour une surprise, ça en est une. Mais cela témoigne sans doute de la nécessité d’aborder cette épineuse question de régulation de l’IA. Il va s’en dire que l’immense champ des possibilités offertes par une telle technologie ne l’exemptent pas d’éventuels risques. Pour Sam Altman, comme pour toutes ces voix qui ont évoqué le sujet, il est impératif de mettre rapidement en place un système de régulation de cette industrie à l’échelle mondiale. Selon le PDG d’OpenAI, ce qu’il appelle la “ super intelligence” sera bientôt la technologie la plus puissante de l’humanité et il faut s’en méfier.

Sam Altman a son idée quant à la régulation de l’IA

Pour sa part, le PDG d’OpenAI propose trois (03) piste de réflexions pour une efficace régulation du secteur. Il suggère que les entreprises travaillant sur l’intelligence artificielle se coordonnent pour mettre au point des méthodes de travail assurant la sécurité des utilisateurs. Ainsi ces entreprises pourraient d’un commun accord définir les limites de la croissance de l’IA à ne pas dépasser chaque année. “ Les entreprises devraient être responsables de respecter un très haut standard en matière de sécurité ”, ajoute-t-il.

Il propose ensuite d’ériger une institution de régulation centralisée comme à l’Agence internationale de l’énergie atomique. Cette autorité centrale, pourra inspecter les systèmes, exiger des audits, vérifier la conformité aux normes de sécurité établis, imposer des restrictions sur les degrés de déploiement et les niveaux de sécurité, etc. Il indique que les entreprises pourraient aussi réfléchir ensemble à la manière de travailler aux côtés de cette agence internationale. Ce qui permettrait aux gouvernements de ne pas assumer la totalité de cette responsabilité seuls.

Enfin, le dernier point porte sur les capacités techniques des entreprises à rendre l’IA sécurisée. Sam Altman assure qu’Open accorde beaucoup de ressources à la recherche dans ce domaine.

Sommes toutes, le patron de la maison mère de chatGPT soutient qu’il est nécessaire de laisser les entreprises développer leurs projets librement. “Bien que les systèmes actuels comportent des risques considérables dans le monde, le niveau de ces risques semble proportionnel à celui des autres technologies de l’internet et les approches probables de la société semblent appropriées.” a-t-il ajouté.

Total
0
Shares
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Previous Post

Le partage d’écran s’embarque bientôt sur WhatsApp

Next Post

Vers un monde SMART avec l’Internet des objets !

Related Posts