Le géant Google est confronté à un scandale relatif à des données scientifiques « inquiétantes ». C’est un ingénieur de Google qui a dévoilé l’affaire, laissant croire que l’Intelligence artificielle du plus grand moteur de recherche appelé LaMDA agit comme « une personne ».
Il a mentionné avoir eu une série de conversations avec LaMDA, et que l’ordinateur s'est décrit lui-même comme une personne sensible.
Blake Lemoine, un ingénieur logiciel senior qui travaille dans l'organisation Responsible AI de Google, a déclaré au Washington Post qu'il avait commencé à discuter avec l'interface LaMDA (Language Model for Dialog Applications) à l'automne 2021 dans le cadre de son travail.
Selon les déclarations de Blake Lemoine, l’ordinateur serait capable de penser et même de développer des sentiments humains. Il affirme notamment qu'au cours des six derniers mois, le robot a été « incroyablement cohérent » quant à ce qu'il pense être ses droits en tant que personne.
En engageant une conversation avec LaMDA sur la religion, la conscience et la robotique, l’ingénieur s’est rapidement rendu compte que l’intelligence artificielle ne pensait plus comme un simple ordinateur. Notons que l’ingénieur en question a été viré par Google.