L’IA maîtrise le langage. Doit-on faire confiance à ce qu’il dit ?

Mais comme la fluidité de GPT-3 a ébloui de nombreux observateurs, l’approche du modèle de grande langue a également suscité de nombreuses critiques au cours des dernières années. Certains sceptiques affirment que le logiciel n’est capable que de mimétisme aveugle – qu’il imite les schémas syntaxiques du langage humain mais qu’il est incapable de générer ses propres idées ou de prendre des décisions complexes, une limitation fondamentale qui empêchera l’approche LLM de jamais mûrir en quelque chose qui ressemble intelligence humaine. Pour ces critiques, GPT-3 n’est que le dernier objet brillant d’une longue histoire de battage médiatique sur l’IA, canalisant les dollars de recherche et l’attention vers ce qui s’avérera finalement être une impasse, empêchant d’autres approches prometteuses de mûrir. D’autres critiques pensent qu’un logiciel comme GPT-3 restera à jamais compromis par les préjugés, la propagande et la désinformation dans les données sur lesquelles il a été formé, ce qui signifie que l’utiliser pour autre chose que des tours de passe-passe sera toujours irresponsable.

Où que vous vous trouviez dans ce débat, le rythme de l’amélioration récente des grands modèles de langage fait qu’il est difficile d’imaginer qu’ils ne seront pas déployés commercialement dans les années à venir. Et cela soulève la question de savoir exactement comment ils – et, d’ailleurs, les autres avancées vertigineuses de l’IA – devraient se déchaîner sur le monde. Avec l’essor de Facebook et de Google, nous avons vu comment la domination dans un nouveau domaine de la technologie peut rapidement conduire à un pouvoir étonnant sur la société, et l’IA menace d’être encore plus transformatrice que les médias sociaux dans ses effets ultimes. Quel est le bon type d’organisation pour construire et posséder quelque chose d’une telle envergure et d’une telle ambition, avec une telle promesse et un tel potentiel d’abus ?

Ou devrions-nous le construire du tout?

Les origines d’OpenAI date de juillet 2015, lorsqu’un petit groupe de sommités du monde de la technologie s’est réuni pour un dîner privé au Rosewood Hotel sur Sand Hill Road, le cœur symbolique de la Silicon Valley. Le dîner s’est déroulé au milieu de deux développements récents dans le monde de la technologie, l’un positif et l’autre troublant. D’une part, des avancées radicales en matière de puissance de calcul – et quelques nouvelles percées dans la conception de réseaux de neurones – avaient créé un sentiment d’excitation palpable dans le domaine de l’apprentissage automatique ; on avait le sentiment que le long « hiver de l’IA », les décennies au cours desquelles le domaine n’a pas été à la hauteur de son engouement initial, commençait enfin à se dégeler. Un groupe de l’Université de Toronto avait formé un programme appelé AlexNet pour identifier des classes d’objets sur des photographies (chiens, châteaux, tracteurs, tables) avec un niveau de précision bien supérieur à ce que n’importe quel réseau neuronal avait atteint auparavant. Google est rapidement intervenu pour embaucher les créateurs d’AlexNet, tout en acquérant simultanément DeepMind et en lançant sa propre initiative appelée Google Brain. L’adoption généralisée d’assistants intelligents comme Siri et Alexa a démontré que même les agents scénarisés pouvaient être des succès de consommation.

Mais au cours de la même période, un changement sismique dans les attitudes du public envers la Big Tech était en cours, des entreprises autrefois populaires comme Google ou Facebook étant critiquées pour leurs pouvoirs de quasi-monopole, leur amplification des théories du complot et leur siphonnage inexorable de notre attention. vers des flux algorithmiques. Des craintes à long terme concernant les dangers de l’intelligence artificielle apparaissaient dans les pages d’opinion et sur la scène TED. Nick Bostrom de l’Université d’Oxford a publié son livre “Superintelligence”, présentant une série de scénarios dans lesquels l’IA avancée pourrait s’écarter des intérêts de l’humanité avec des conséquences potentiellement désastreuses. Fin 2014, Stephen Hawking a annoncé à la BBC que ” le développement de l’intelligence artificielle complète pourrait sonner le glas de la race humaine. ” Il semblait que le cycle de consolidation des entreprises qui caractérisait l’ère des médias sociaux était déjà en cours avec l’IA. , mais cette fois-ci, les algorithmes pourraient ne pas simplement semer la polarisation ou vendre notre attention au plus offrant – ils pourraient finir par détruire l’humanité elle-même. Et encore une fois, toutes les preuves laissaient entendre que ce pouvoir allait être contrôlé par quelques mégacorporations de la Silicon Valley.

L’ordre du jour du dîner sur Sand Hill Road cette nuit de juillet n’était rien sinon ambitieux : trouver le meilleur moyen d’orienter la recherche sur l’IA vers le résultat le plus positif possible, en évitant à la fois les conséquences négatives à court terme qui ont tourmenté l’ère du Web 2.0 et la menaces existentielles à long terme. À partir de ce dîner, une nouvelle idée a commencé à prendre forme – une idée qui deviendrait bientôt une obsession à plein temps pour Sam Altman de Y Combinator et Greg Brockman, qui avait récemment quitté Stripe. Fait intéressant, l’idée n’était pas tant technologique qu’organisationnelle : si l’IA devait se déchaîner sur le monde de manière sûre et bénéfique, cela allait nécessiter des innovations au niveau de la gouvernance, des incitations et de l’implication des parties prenantes. La voie technique vers ce que le domaine appelle l’intelligence générale artificielle, ou AGI, n’était pas encore claire pour le groupe. Mais les prévisions troublantes de Bostrom et Hawking les ont convaincus que la réalisation d’une intelligence humaine par les IA consoliderait une quantité étonnante de pouvoir et de fardeau moral chez celui qui parviendrait finalement à les inventer et à les contrôler.

En décembre 2015, le groupe a annoncé la création d’une nouvelle entité appelée OpenAI. Altman avait signé pour être le directeur général de l’entreprise, Brockman supervisant la technologie; un autre participant au dîner, le co-créateur d’AlexNet, Ilya Sutskever, avait été recruté par Google pour diriger la recherche. (Elon Musk, qui était également présent au dîner, a rejoint le conseil d’administration, mais a quitté en 2018.) Dans un article de blog, Brockman et Sutskever ont exposé la portée de leur ambition : ” OpenAI est un organisme de recherche en intelligence artificielle à but non lucratif .compagnie ”, ont-ils écrit. “Notre objectif est de faire progresser l’intelligence numérique de la manière la plus susceptible de profiter à l’humanité dans son ensemble, sans être contrainte par un besoin de générer un rendement financier.” Ils ont ajouté : “Nous pensons que l’IA devrait être une extension de la volonté humaine individuelle. et, dans l’esprit de la liberté, aussi largement et équitablement répartis que possible.”

Les fondateurs d’OpenAI publieront une charte publique trois ans plus tard, énonçant les principes fondamentaux de la nouvelle organisation. Le document a été facilement interprété comme une fouille pas si subtile du slogan de Google ” Ne sois pas méchant ” de ses débuts, une reconnaissance que maximiser les avantages sociaux – et minimiser les dommages – des nouvelles technologies n’a pas toujours été cela simple un calcul. Alors que Google et Facebook avaient atteint la domination mondiale grâce à des algorithmes à source fermée et à des réseaux propriétaires, les fondateurs d’OpenAI ont promis d’aller dans l’autre sens, en partageant de nouvelles recherches et en codent librement avec le monde.

Leave a Comment