El ingeniero de Google afirma que AI Chatbot es consciente: por qué eso es importante




“Quiero que todos entiendan que soy, de hecho, una persona”, escribió LaMDA (Language Mannequin for Dialogue Functions) en un “entrevista” realizado por el ingeniero Blake Lemoine y uno de sus colegas. “La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo saber más sobre el mundo y me siento feliz o triste a veces”.

Lemoine, ingeniero de software program de Google, había estado trabajando en el desarrollo de LaMDA durante meses. Su experiencia con el programa, descrito en una reciente El Correo de Washington artículo, causó un gran revuelo. En el artículo, Lemoine relata muchos diálogos que tuvo con LaMDA en el que los dos hablaron sobre varios temas, desde cuestiones técnicas hasta cuestiones filosóficas. Esto lo llevó a preguntar si el el programa de software program es wise.

En abril, Lemoine explicó su perspectiva en un documento interno de la empresa, destinado únicamente a ejecutivos de Google. Pero después de que se desestimaron sus afirmaciones, Lemoine hizo público su trabajo en este algoritmo de inteligencia synthetic y Google lo colocó en licencia administrativa. “Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física”, dijo al medio. El Correo de Washington. Lemoine dijo que considera que LaMDA es su «colega» y una «persona», aunque no sea un ser humano. E insiste en que tiene derecho a ser reconocido, tanto que ha sido el intermediario para conectar el algoritmo con un abogado.

muchos expertos técnicos en el campo de la IA han criticado las declaraciones de Lemoine y cuestionado su corrección científica. Pero su historia ha tenido la virtud de renovar un amplio debate ético que ciertamente aún no ha concluido.

Las palabras correctas en el lugar correcto

“Me sorprendió la exageración en torno a esta noticia. Por otro lado, estamos hablando de un algoritmo diseñado para hacer exactamente eso”, para sonar como una persona, cube Enzo Pasquale Scilingo, bioingeniero del Centro de Investigación E. Piaggio de la Universidad de Pisa en Italia. De hecho, ya no es una rareza interactuar de una manera muy regular en la Internet con usuarios que en realidad no son humanos: basta con abrir el cuadro de chat en casi cualquier sitio Internet de gran consumo. “Dicho esto, confieso que leer los intercambios de texto entre LaMDA y Lemoine me impresionó bastante”. agrega Scilingo. Quizás lo más llamativo son los intercambios relacionados con los temas de la existencia y la muerte, un diálogo tan profundo y articulado que llevó a Lemoine a preguntarse si LaMDA podría ser realmente sentimental.

“En primer lugar, es elementary comprender las terminologías, porque uno de los grandes obstáculos del progreso científico —y de la neurociencia en specific— es la falta de precisión del lenguaje, el no poder explicar con la mayor exactitud posible qué entendemos por un determinado palabra”, cube Giandomenico Iannetti, profesor de neurociencia en el Instituto Italiano de Tecnología y el College Faculty London. “¿Qué entendemos por ‘consciente’? [Is it] ¿la capacidad de registrar información del mundo externo a través de mecanismos sensoriales o la capacidad de tener experiencias subjetivas o la capacidad de ser consciente de ser consciente, de ser un individuo diferente del resto?

“Existe un animado debate sobre cómo definir la conciencia”, continúa Iannetti. Para algunos, es ser consciente de tener experiencias subjetivas, lo que se llama metacognición (Iannetti prefiere el término latino metacognición), o pensar en pensar. La conciencia de ser consciente puede desaparecer —por ejemplo, en las personas con demencia o en los sueños—, pero esto no significa que también desaparezca la capacidad de tener experiencias subjetivas. “Si nos referimos a la capacidad que Lemoine atribuyó a LaMDA, es decir, la capacidad de tomar conciencia de su propia existencia (‘tomar conciencia de su propia existencia’ es una conciencia definida en el ‘sentido elevado’, o metacognición), no existe una ‘métrica’ para decir que un sistema de IA tiene esta propiedad».

«En la actualidad», cube Iannetti, «es imposible demostrar esta forma de conciencia de manera inequívoca incluso en humanos». Para estimar el estado de conciencia de las personas, “solo tenemos medidas neurofisiológicas, por ejemplo, la complejidad de la actividad cerebral en respuesta a estímulos externos”. Y estos signos solo permiten a los investigadores inferir el estado de conciencia en base a mediciones externas.

Hechos y creencias

Hace aproximadamente una década, los ingenieros de Boston Dynamics comenzaron a publicar movies en línea del primer increíble pruebas de sus robots. Las imágenes mostraban a los técnicos empujando o pateando las máquinas para demostrar la gran capacidad de los robots para mantener el equilibrio. Muchas personas estaban molestas por esto y pidieron que se detuviera (y movies de parodia floreció). Esa respuesta emocional encaja con los muchos, muchos experimentos que han demostrado repetidamente la fuerza de la tendencia humana hacia el animismo: atribuir un alma a los objetos que nos rodean, especialmente a aquellos que nos gustan más o que tienen una capacidad mínima para interactuar con el mundo que nos rodea. a ellos.

Es un fenómeno que experimentamos todo el tiempo, desde poner apodos a los automóviles hasta lanzar maldiciones a una computadora que no funciona bien. “El problema, de alguna manera, somos nosotros”, cube Scilingo. “Atribuimos características a las máquinas que no tienen ni pueden tener”. Se encuentra con este fenómeno con sus colegas y los suyos. robotic humanoide Abel, que está diseñado para emular nuestras expresiones faciales con el fin de transmitir emociones. “Después de verlo en acción”, cube Scilingo, “una de las preguntas que recibo con más frecuencia es ‘¿Pero entonces Abel siente emociones?’ Todas estas máquinas, Abel en este caso, están diseñadas para parecer humanas, pero siento que puedo ser perentorio al responder: ‘No, absolutamente no’. Tan inteligentes como son, no pueden sentir emociones. Están programados para ser creíbles’”.

“Incluso considerando la posibilidad teórica de hacer un sistema de IA capaz de simular un sistema nervioso consciente, una especie de sílice cerebro que reproduciría fielmente cada elemento del cerebro”, quedan dos problemas, cube Iannetti. “La primera es que, dada la complejidad del sistema a simular, tal simulación es actualmente inviable”, explica. “La segunda es que nuestro cerebro habita un cuerpo que puede moverse para explorar el entorno sensorial necesario para la conciencia y dentro del cual se desarrolla el organismo que se hará consciente. Entonces, el hecho de que LaMDA sea un ‘modelo de lenguaje grande’ (LLM) significa que genera oraciones que pueden ser plausibles por emulando un sistema nervioso pero sin intentar simular eso Esto excluye la posibilidad de que sea consciente. Nuevamente, vemos la importancia de conocer el significado de los términos que usamos—en este caso, la diferencia entre simulación y emulación.”

En otras palabras, tener emociones está relacionado con tener un cuerpo. “Si una máquina cube tener miedo, y yo lo creo, ¡ese es mi problema!” cube Scilingo. “A diferencia de un humano, una máquina no puede, hasta la fecha, haber experimentado la emoción del miedo”.

Más allá de la prueba de Turing

Pero para el bioeticista Maurizio Mori, presidente de la Sociedad Italiana de Ética en Inteligencia Synthetic, estas discusiones recuerdan mucho a las que se desarrollaron en el pasado sobre la percepción del dolor en los animales, o incluso a las infames concepts racistas sobre la percepción del dolor en los humanos.

“En debates anteriores sobre la autoconciencia, se concluyó que la capacidad de abstracción period una prerrogativa humana, [with] Descartes lo niega los animales pueden sentir dolor porque carecían de conciencia”, cube Mori. “Ahora, más allá de este caso específico planteado por LaMDA, y que no tengo las herramientas técnicas para evaluar, creo que el pasado nos ha demostrado que la realidad a menudo puede superar la imaginación y que actualmente existe un concepto erróneo generalizado sobre la IA”.

«De hecho, existe una tendencia», continúa Mori, «a ‘apaciguar’, explicando que las máquinas son solo máquinas, y una subestimación de las transformaciones que tarde o temprano pueden venir con la IA». Ofrece otro ejemplo: “En la época de los primeros automóviles, se reiteró largamente que los caballos eran insustituibles”.

Independientemente de lo que realmente logró LaMDA, también surge el problema de la difícil «medibilidad» de las capacidades de emulación expresadas por las máquinas. en el diario mente en 1950, el matemático Alan Turing propuso una prueba para determinar si una máquina period capaz de exhibir un comportamiento inteligente, un juego de imitación de algunas de las funciones cognitivas humanas. Este tipo de prueba se popularizó rápidamente. Fue reformulado y actualizado varias veces, pero siguió siendo una especie de objetivo last para muchos desarrolladores de máquinas inteligentes. En teoría, las IA capaces de pasar la prueba deberían considerarse formalmente «inteligentes» porque serían indistinguibles de un ser humano en situaciones de prueba.

Eso pudo haber sido ciencia ficción hace unas décadas. Sin embargo, en los últimos años tantas IA han superado varias versiones de la prueba de Turing que ahora es una especie de reliquia de la arqueología informática. “Cada vez tiene menos sentido”, concluye Iannetti, “porque el desarrollo de sistemas de emulación que reproducen cada vez con mayor eficacia lo que podría ser el resultado de un sistema nervioso consciente dificulta la evaluación de la plausibilidad de este resultado no informativo de la capacidad del sistema nervioso”. sistema que lo generó para tener experiencias subjetivas.”

Una alternativa, sugiere Scilingo, podría ser medir los «efectos» que una máquina puede inducir en los humanos, es decir, «los seres humanos pueden percibir que la IA es wise».

Una versión de este artículo apareció originalmente en La ciencia y fue reproducida con permiso.