La IA impactará profundamente la vida a corto plazo, afirman científicos
Un estudio de University College London reveló profundas diferencias entre expertos y ciudadanos sobre los riesgos, beneficios y regulaciones de la IA

Mientras la inteligencia artificial (IA) se integra con rapidez en distintos aspectos de la vida cotidiana, un estudio internacional liderado por University College London (UCL) reveló una clara diferencia entre cómo perciben esta tecnología los científicos que la desarrollan y el público general.
El informe, titulado Visions, Values, Voices, se basó en las respuestas de 4.260 expertos en IA de todo el mundo, quienes evaluaron los beneficios, riesgos y valores éticos asociados a su trabajo.
De acuerdo con los resultados, los investigadores muestran una actitud mayoritariamente optimista: el 87% considera que los beneficios de la IA superan o al menos equilibran sus riesgos. En cambio, solo el 57% de los ciudadanos británicos comparte esa opinión.
La brecha se amplía cuando se observan las percepciones negativas: mientras que el 28% del público cree que los riesgos superan los beneficios, apenas el 9% de los científicos está de acuerdo con esa visión.
Opiniones en común
Ambos grupos coinciden en señalar ciertos peligros concretos del uso de esta tecnología. La propagación de noticias falsas, el mal uso de datos personales y el aumento del cibercrimen aparecen entre las principales preocupaciones.
El informe señala que el 77% de los científicos considera que la IA agrava el problema de la desinformación, percepción que también comparte el 68% del público.
Además, el uso no autorizado de datos personales es motivo de alarma tanto para el 65% de los expertos como para el 71% de los ciudadanos, lo que refleja un consenso general sobre los riesgos para la privacidad.
Uno de los puntos más debatidos en el estudio fue el uso de datos públicos para entrenar modelos de inteligencia artificial.
Aunque muchas empresas tecnológicas recolectan información disponible en línea sin pedir autorización, solo uno de cada cuatro científicos encuestados considera aceptable esta práctica sin el consentimiento explícito de los autores.
Por el contrario, casi la mitad de los investigadores cree que se debería requerir un permiso claro para utilizar textos, imágenes y otros contenidos protegidos.
Esta postura entra en tensión con las propuestas regulatorias de algunos gobiernos, como el británico, que promueven sistemas de exclusión voluntaria (opt-out) que permitirían utilizar obras con derechos de autor salvo que sus creadores se opongan expresamente.
Cian O’Donovan, autor principal del informe, subrayó que estas diferencias ponen de relieve una necesidad urgente de establecer marcos éticos más sólidos. Según explicó, muchas de las preocupaciones de los investigadores chocan directamente con prácticas habituales de la industria tecnológica, como el scraping masivo de datos en internet, lo que plantea interrogantes éticos sobre la forma en que se construyen y entrenan los sistemas de IA actuales.
En cuanto a la regulación, la mayoría de los científicos considera que las empresas desarrolladoras, los gobiernos y los organismos internacionales deben asumir la responsabilidad de garantizar un uso seguro de la tecnología. Por su parte, el público británico se inclina por modelos de control más participativos, basados en reguladores independientes que incluyan representación ciudadana.
Respecto al ritmo de innovación, el informe señala que solo el 29% de los investigadores está a favor de acelerar el desarrollo de la IA sin restricciones. La mayoría opta por un enfoque más prudente, priorizando la evaluación de riesgos antes que la velocidad del progreso. A esto se suma el escepticismo en torno a la creación de una inteligencia artificial general (AGI): apenas uno de cada cinco científicos considera inevitable su llegada, en contraste con el discurso entusiasta de ciertas compañías del sector que aseguran estar cerca de alcanzar ese hito tecnológico.
Únete al canal de WhatsApp y recibe en tu celular lo más importante de México y el mundo con el análisis y la voz de Guillermo Ortega Ruiz.