Hoffman et d’autres ont déclaré qu’il n’était pas nécessaire d’interrompre le développement de l’IA. Il a qualifié cette mesure drastique, réclamée par certains chercheurs en IA, de stupide et de destructrice. Hoffman s’est identifié comme un « accélérateur » rationnel – quelqu’un qui sait ralentir lorsqu’il prend un virage mais qui, vraisemblablement, est heureux d’accélérer lorsque la route est libre. « Je recommande à tout le monde de venir nous rejoindre au sein du club optimiste, non pas parce que c’est une utopie et que tout se passe bien, mais parce que cela peut faire partie d’une solution incroyable », a-t-il déclaré. « C’est vers cela que nous essayons de construire. »
Mitchell et Buolamwini, artiste en chef et président du groupe de défense des préjudices à l’IA, Algorithmic Justice League, ont déclaré que s’appuyer sur les promesses de l’entreprise pour atténuer les préjugés et l’utilisation abusive de l’IA ne serait pas suffisant. Selon eux, les gouvernements doivent indiquer clairement que les systèmes d’IA ne peuvent pas porter atteinte aux droits des personnes à un traitement équitable ou à l’humanité. « Ceux qui risquent d’être exploités ou extorqués, voire exterminés », doivent être protégés, a déclaré Buolamwini, ajoutant que les systèmes tels que les drones mortels devraient être arrêtés. « Nous sommes déjà dans un monde où l’IA est dangereuse », a-t-elle déclaré. « Nous avons l’IA comme anges de la mort. »
Les applications telles que les armes sont loin de l’objectif principal d’OpenAI d’aider les codeurs, les écrivains et autres professionnels. Les outils de l’entreprise, selon leurs termes, ne peuvent pas être utilisés dans l’armée et la guerre, bien que le principal bailleur de fonds et client enthousiaste d’OpenAI, Microsoft, ait des relations commerciales importantes avec l’armée américaine. Mais Buolamwini a suggéré que les entreprises développant des applications commerciales ne méritaient pas moins d’être surveillées. Alors que l’IA prend en charge des tâches banales telles que la composition, les entreprises doivent être prêtes à prendre en compte les conséquences sociales d’un monde qui pourrait offrir aux travailleurs moins d’opportunités significatives d’apprendre les bases d’un travail qui pourrait s’avérer vital pour devenir hautement qualifié. « Que signifie passer par ce processus de création, trouver le mot juste, trouver comment s’exprimer et apprendre quelque chose dans la lutte pour y parvenir ? » dit-elle.
Fei-Fei Li, un informaticien de l’Université de Stanford qui dirige l’Institut pour l’intelligence artificielle centrée sur l’humain de l’école, a déclaré que la communauté de l’IA doit se concentrer sur ses impacts sur les personnes, depuis la dignité individuelle jusqu’aux grandes sociétés. «Je devrais créer un nouveau club appelé techno-humaniste», a-t-elle déclaré. « C’est trop simple de dire : « Voulez-vous accélérer ou décélérer ? » Nous devrions parler de où nous voulons accélérer, et là où nous devrions ralentir.
Li est l’un des pionniers modernes de l’IA, ayant développé le système de vision par ordinateur connu sous le nom d’ImageNet. OpenAI voudrait-il une voix apparemment équilibrée comme la sienne au sein de son nouveau conseil d’administration ? Le président du conseil d’administration d’OpenAI, Bret Taylor, n’a pas répondu à une demande de commentaires. Mais si l’occasion se présentait, Li a déclaré : « J’y réfléchirai attentivement. »