De acuerdo al portal de noticias La Nación, Inteligencia artificial: ¿habrá que parar las máquinas antes de que sea tarde?
El impresionante avance de la tecnología y la Inteligencia Artificial (IA) ha llevado a un aumento de los pedidos de regulación por parte de la sociedad y los gobiernos. Un reciente experimento demostró que la IA es capaz de «leer la mente», lo que ha generado aún más preocupación sobre el uso ético y responsable de esta tecnología. En respuesta a estas preocupaciones, la Casa Blanca ha convocado a las principales empresas de IA para discutir compromisos éticos y morales en torno al desarrollo de la tecnología. En Brasil, el Parlamento también está considerando la implementación de una regulación sobre la IA. En este contexto, se plantea un panorama sobre la creciente necesidad de establecer límites y responsabilidades claras en el desarrollo y uso de la tecnología de IA.
Semana a semana, la evolución de la inteligencia artificial (IA) asombra a propios y extraños al punto de que los expertos del sector aseguran que se está más cerca de lo que se creía del advenimiento de una “inteligencia artificial general”; es decir, que las máquinas igualen e, incluso, superen el comportamiento del cerebro humano.
Geoffrey Hinton, considerado el “padrino de la IA”, comentó en estos días al renunciar a Google: “Pensaba que faltaban de 30 a 50 años (para una AGI). Ya no”. Lo hizo advirtiendo del peligro de la “excesiva velocidad” con que se está desarrollando este ingenio. “Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas”, dijo compungido.
A su turno, Demis Hassabis, el desarrollador de Deep Mind, la apuesta de Google para enfrentar a Open AI, la creadora de Chat GPT, apuntó: “Podríamos estar a solo unos pocos años (de la aparición de una AGI), tal vez dentro de una década de distancia”, apuntó.
Por lo pronto, en estos días se dio a conocer el experimento de investigadores de la Universidad de Texas en el que una IA se acercó, a grandes rasgos, a “leer la mente” de una persona. Conectaron la IA a un resonador magnético para que leyera qué partes del cerebro se activaban en el paciente cuando escuchaba un podcast en sus auriculares.
La IA, mediante el programa GPT-1, logró decodificar y describir la esencia de las historias que escuchó mediante un “decodificador semántico”, tal como lo llamaron en la publicación especializada Nature Neuroscience. El aparato probado en varios pacientes consiguió también describir lo que pensaban y observaban mientras veían proyecciones de cine mudo.
El experimento podría ayudar a darles la posibilidad de recuperar el habla a pacientes que “luchan por comunicarse debido a un accidente cerebrovascular o una enfermedad de la neurona motora”, dijeron los especialistas del Centro de Imágenes Biomédicas de la Universidad de Texas. “Nuestro sistema funciona a nivel de ideas, semántica, significado”, dijo el neurólogo Alexander Huth, ideólogo del decodificador. “Esta es la razón por la que lo que sacamos no son las palabras exactas, es la esencia”. Por ejemplo, cuando a un participante se le reprodujeron las palabras “no sabía si gritar, llorar o salir corriendo”. En lugar de eso dijo “¡déjame en paz!”. Comentando el hallazgo para la BBC, el neurocientífico Christian Herff, que lidera una investigación parecida en la Universidad de Maastricht (Países Bajos), se mostró “absolutamente convencido de que la información semántica se utilizará en las interfaces cerebro-máquina para hablar en el futuro”.
RESPONSABILIDADES
Todo esto mientras sigue resonando la carta del 29 de marzo pasado que pidió un cese de seis meses en las investigaciones sobre IA porque esta puede representar “una amenaza contra la humanidad”. Firmada por mil expertos y personalidades como Elon Musk y el cofundador de Apple Steve Wozniak, el texto que se presentó con mil firmas lleva ya más de 27.000 adhesiones.
Por eso, la vicepresidenta de Estados Unidos, Kamala Harris, se reunió el pasado 4 de mayo con los directores generales de Alphabet, Anthropic, Microsoft y Open AI, a los que insistió en señalar “la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos”.
Se anunció también un compromiso para evaluar públicamente los sistemas en la Def Con, una convención de especialistas en informática que se realizará en agosto en Las Vegas.
El presidente Joe Biden participó brevemente por videoconferencia y les recordó a los empresarios el “enorme potencial y enorme peligro en lo que ustedes hacen… Sé que ustedes lo entienden y espero que puedan informarnos de lo que consideren que es más necesario para proteger a la sociedad, así como para su avance”. Por su parte, Harris señaló que la IA tiene el “potencial de mejorar la vida cotidiana y abordar algunos de los mayores desafíos de la sociedad”, pero también podría “aumentar drásticamente las amenazas a la seguridad, reducir los derechos humanos y la privacidad, y socavar la confianza pública en la democracia”.
Tras el encuentro se informó también que el gobierno invertirá 140 millones de dólares en siete nuevos institutos estatales de investigación de inteligencia artificial. También las autoridades del Reino Unido anunciaron que revisarán los chatbots como el famoso Chat GPT, de Open AI.
Vale recordar que Open AI mantiene en secreto los datos con los que se han entrenado sus sistemas, un punto que traerá controversias a futuro.
Entre tanto, en Brasil, el presidente del Senado, Rodrigo Pacheco, presentó un proyecto de ley para reglamentar el uso de la IA. El mismo surgió de una comisión de juristas que estudió el tema durante 70 audiencias públicas. “Por un lado, el proyecto establece derechos para proteger a las personas que son impactadas diariamente por los sistemas de inteligencia artificial, desde recomendar contenidos y dirigir publicidad en internet hasta analizar su elegibilidad para crédito y ciertas políticas públicas”, dice el texto.