sábado 16 de marzo de 2024
Insistieron en abordar una regulación efectiva

Expertos alertaron por el avance de la Inteligencia Artificial

"Mitigar el riesgo de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social, como las pandemias y la guerra nuclear", dijeron a través de una carta.

Un grupo de expertos del sector tecnológico advirtió sobre el "riesgo de extinción" de la humanidad por el impetuoso avance de la Inteligencia Artificial (IA), a través de una breve carta difundida este martes, y ratificaron la necesidad de ponerle un límite. Mediante esa nota, afirmaron que "mitigar el riesgo de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social, como las pandemias y la guerra nuclear".

El comunicado, que fue publicado en el sitio web safe.ai, lleva las firmas de Martín Hellman, profesor emérito de Ingeniería Eléctrica de la Universidad de Stanford; Lila Ibrahim, directora de operaciones de Google DeepMind; y Marian Rogers Croak, vicepresidenta del Centro de IA Responsable y Tecnología Centrada en el Ser Humano de Google.

La carta también fue rubricada por Sam Altman, presidente ejecutivo de OpenAI, la empresa que creó ChatGPT, un sistema de conversación basado en Inteligencia Artificial, y que puede desarrollar tareas en diversas áreas.

Sin embargo, el mismo Altman se reunió la semana pasada con distintos líderes europeos para tratar de ponerle un límite a la IA, ante la posibilidad de que este sistema tome una autonomía que ponga en riesgo a la humanidad.

En marzo, más de mil empresarios e investigadores del sector tecnológico -entre ellos Elon Musk, quien no firmó la carta de este martes- habían solicitado en otra misiva que se suspendan durante seis meses los sistemas de IA.

Seguí leyendo
LO QUE SE LEE AHORA
continua el alerta por tormentas para capital y otros 10 departamentos

Te Puede Interesar