Expertos en IA piden pausa en el desarrollo de estas por potenciales riesgos para la humanidad

Chat GPT
Foto de depositphotos.com

San Francisco, California.- A través de una carta difundida en redes sociales, un grupo integrado por académicos, expertos en inteligencia artificial están pidiendo una pausa de seis meses en el desarrollo de sistemas más potentes de IA, ya que hay riesgos potenciales para la sociedad y la humanidad.

A principios de este mes, OpenAI, respaldado por Microsoft, presentó la cuarta versión de su programa de IA GPT (Generative Pre-trained Transformer), que ha cautivado a los usuarios con su amplia gama de aplicaciones, desde conversaciones informales con la IA, componer canciones, crear ilustraciones, videos y escribir artículos sobre algún tema en específico.

La carta fue emitida por el ‘Future of Life Institute’, una nueva organización sin fines de lucro que trabaja para reducir los riesgos existenciales y catastróficos globales, particularmente el riesgo existencial de la inteligencia artificial avanzada. La carta está firmada por más de mil personas, incluido Elon Musk, pedía una pausa en el desarrollo avanzado de IA hasta que expertos independientes desarrollaran.

También detalla los potenciales riesgos para la sociedad y la civilización de la circulación de los sistemas de IA competitivos entre humanos en forma de interrupciones económicas y políticas.

El documento pide a los desarrolladores que trabajaran con los legisladores en materia de gobernabilidad y autoridades reguladoras una pausa en su avance para legislar y analizar las futuras consecuencias que al mundo traería la proliferación de este tipo de sistemas automatizados.

“Los poderosos sistemas de inteligencia artificial deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, sentencia la carta.

Las preocupaciones surgen cuando la fuerza policial de la Unión Europea, Europol, se sumó el pasado 17 de marzo a una serie de preocupaciones éticas y legales sobre IA avanzada como ChatGPT, advirtiendo sobre el posible uso indebido del sistema en intentos de phishing, desinformación y ciberdelincuencia.

El enfoque del gobierno europeo, descrito en un documento publicado el pasado 28 de marzo, dividiría la responsabilidad de gobernar la inteligencia artificial (IA) entre sus reguladores de derechos humanos, salud y seguridad y competencia, en lugar de crear un nuevo organismo dedicado a la tecnología.

El Instituto Future of Life está financiado principalmente por la Fundación Musk, así como por el grupo de altruismo efectivo Founders Pledge con sede en Londres y la Fundación Comunitaria de Silicon Valley.

Por otra parte, los críticos acusaron a los firmantes de la carta de promover la “exageración de la IA”, argumentando que las afirmaciones sobre el potencial actual de la tecnología han sido muy exageradas. (EL HERALDO)