¿Riesgo de extinción humana por la IA debe ser prioridad global?

Inteligencia Artificial compliance

¿Riesgo de extinción humana por la IA debe ser prioridad global?. Según publica el portal mercadonegro.pe Los riesgos y posibilidades de la inteligencia artificial (IA) han sido objeto de intensos debates y especulaciones desde que el famoso ChatGPT saltó a la escena. Mientras algunos vislumbran un futuro distópico en el que la IA se rebela contra sus creadores y lleva a la extinción de la humanidad, otros consideran que estos temores son exagerados y que la IA no está cerca de alcanzar tal nivel de sofisticación. En medio de este debate, un grupo de prominentes figuras en el campo de la IA ha emitido una contundente declaración que destaca los posibles riesgos letales de las máquinas.

La organización no gubernamental Center for AI Safety ha sido la encargada de difundir esta declaración, que ha sido firmada por destacados CEOs, investigadores e ingenieros enfocados en la IA. Entre los firmantes se encuentran nombres reconocidos como Demis Hassabis, CEO de Google DeepMind; Sam Altman, CEO de OpenAI, y Geoffrey Hinton y Youshua Bengio, dos de los galardonados con el Premio Turing en 2018 por su trabajo en IA.


Banner_frasco-suscripcion-800x250

En estas breves 22 palabras, estos expertos instan a considerar la mitigación del riesgo de una eventual extinción propiciada por la IA como una prioridad global equiparable a otros peligros, como las pandemias y las guerras nucleares. Esta declaración no hace más que reforzar las voces que desde hace tiempo advierten sobre los peligros potenciales de la IA.

No es la primera vez que se plantean preocupaciones sobre los riesgos asociados con la IA. En marzo pasado, se publicó una carta abierta que abogaba por una pausa de seis meses en el desarrollo de la IA. Sin embargo, esta carta recibió críticas y opiniones divididas. Mientras algunos consideraron que exageraba los riesgos, otros estuvieron de acuerdo en la existencia de peligros, pero no con las soluciones propuestas.

Dan Hendrycks, director ejecutivo de Center for AI Safety, explicó a The New York Times que la intención de esta declaración es evitar posibles desacuerdos y centrarse en la preocupación compartida por los riesgos de la IA. Según Hendrycks, la idea era presentar una declaración concisa y clara, sin abrumar con una lista extensa de intervenciones potenciales que diluyan el mensaje.

Vea también: El impacto de la IA en el marketing empresarial 

Hendrycks también destacó que existe un malentendido dentro de la propia comunidad de IA, donde se cree que solo hay un pequeño grupo de personas preocupadas por los riesgos. Sin embargo, según el director ejecutivo del Center for AI Safety, en privado muchas personas expresan su inquietud sobre el futuro de la IA.

El debate sobre los peligros de la IA se centra en escenarios hipotéticos en los que los sistemas de IA aumentan rápidamente su capacidad y dejan de operar de manera segura. Los expertos advierten que una vez que los sistemas de inteligencia artificial alcanzan cierto nivel de sofisticación, puede resultar imposible controlar sus acciones y sus potenciales consecuencias.

No obstante, existen también voces escépticas que señalan la incapacidad actual de la IA para llevar a cabo tareas mundanas, como conducir un automóvil de manera autónoma. A pesar de los millones de dólares invertidos en investigación en esta área, los autos completamente autónomos todavía se encuentran lejos de convertirse en una realidad palpable.

El debate en torno a los riesgos y posibilidades de la inteligencia artificial continúa, con diferentes perspectivas y opiniones que enriquecen el análisis de este tema tan complejo. Lo que queda claro es que la IA ha despertado un interés y preocupación generalizada, y la necesidad de abordar adecuadamente los riesgos y garantizar su desarrollo seguro se vuelve cada vez más apremiante.

Banner_azules
Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉