Más de 60 % de personas desconfían de inteligencia artificial, según estudio global

(Xinhua/Zeng Hui) 

Sídney.- Tres de cada cinco personas, alrededor del 61 por ciento, desconfían de los sistemas de inteligencia artificial (IA), y reportan ambivalencia o falta de voluntad para confiar, según un estudio global publicado hoy miércoles.

Investigadores de la Universidad de Queensland y KPMG Australia llevaron a cabo encuestas a más de 17 mil personas de 17 países de todo el mundo, entre ellos Australia, China, Francia y Estados Unidos, que son líderes en actividad y preparación de IA en su región.

Según el estudio, solo el 39 por ciento dijo estar dispuesto a confiar en los sistemas de inteligencia artificial, mientras que un tercio de las personas encuestadas en todo el mundo mostraron una alta aceptación.

Aunque alrededor del 85 por ciento cree que el uso de la IA generará amplios beneficios, incluida una mayor eficiencia, innovación, costos reducidos y un mejor uso de los recursos, el 73 por ciento de los encuestados también expresó su preocupación por los riesgos potenciales del uso de la IA.

Entre los nueve riesgos enumerados, la ciberseguridad es la principal preocupación planteada por el 84 por ciento de los participantes en la encuesta, seguido por la manipulación o el uso nocivo de la IA y la pérdida de puestos de trabajo debido a la automatización.

El estudio también reveló que el 61 por ciento de los encuestados se preocupa por el impacto “incierto e impredecible” de la IA en la sociedad, y el 71 por ciento cree que se requiere una regulación de la IA.

El socio administrador de KPMG Futures, James Mabbott, dijo que un desafío clave es que un tercio de las personas tiene poca confianza en los Gobiernos, la tecnología y las organizaciones comerciales para desarrollar, usar y gobernar la IA en el mejor interés de la sociedad.

“Las organizaciones pueden generar confianza en su uso de la IA mediante la implementación de mecanismos que demuestren un uso responsable, como el monitoreo regular de la precisión y la confiabilidad, la implementación de códigos de conducta, las revisiones y certificaciones éticas independientes y el cumplimiento de los estándares internacionales emergentes de la IA”, dijo Mabbott. (XINHUA)