¿Pueden las inteligencias artificiales tener conciencia?

banca-digital

The Peer Review entrevistó entrevistó a Arturo Pérez, investigador en ciencias cognitivas, Psicólogo UDP, MSc in Psychology de la Universidad de Alberta, cuya área de trabajo actual es la Cognición musical, música y redes neuronales artificiales para conversar sobre el debate de las investigaciones y aplicaciones sobre la Inteligencia Artificial.

Hace unos días en una entrevista para The Washington Post el ingeniero de Google, Black Lemoine, declaró, refiriéndose a las conversaciones que había sostenido con LaMDA (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo en español): “Si no supiera exactamente qué es, que se trata de programa de computador que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física”.

Banner_frasco-suscripcion-800x250

Estas declaraciones vuelven a poner sobre el tapete

Un debate que viene dándose en las investigaciones y aplicaciones sobre la Inteligencia Artificial al menos desde los años cincuenta del siglo pasado, cual es si dichas entelequias pueden adquirir conciencia y, sobre todo, cuáles podrían ser los procedimientos para determinar aquello. The Peer Review entrevistó a Arturo Pérez, investigador en ciencias cognitivas, Psicólogo UDP, MSc in Psychology de la Universidad de Alberta, y estudiante de doctorado en psicología de la misma universidad, cuya área de trabajo actual es la Cognición musical, música y redes neuronales artificiales (ANN).

TPR: Para partir la conversación con usted, ¿qué es lo que debemos tener en cuenta para sopesar las declaraciones de Black Lemoine?

Arturo Pérez: “Primero que todo, tenemos que acordarnos de que estos son modelos de Inteligencia Artificial que vienen del mundo del aprendizaje de máquinas [machine learning]. La forma en la que operan estos modelos es que “aprenden” -sobre grandes bases de datos- a dar un output, un producto. En el caso de estos modelos de Inteligencia Artificial para chat el texto más que algo que el modelo articule a propósito, es una concatenación de palabras creada probabilísticamente, o sea, que sobre la base de datos con que se entrena el modelo, este aprende qué palabra es más probable que vaya después de otra”.

Conoce más aquí


Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉