El Gobierno británico publicó un informe según expertos de la industria, académicos y servicios de inteligencia, en el que expone los potenciales escenarios futuros a los que se puede enfrentar el mundo en los próximos años con los avances tecnológicos.
El primer escenario nos habla del rendimiento de la inteligencia artificial y sus capacidades que van mejorando a un ritmo sumamente rápido, pero continúan requiriendo supervisión humana sin embargo, se plantea que en el 2030 la combinación de diversos modelos de IA basados en un código abierto lo cual permitirá una nueva generación de sistemas autónomos con altas capacidades.
“Realizan tareas complejas que requieren planificación y razonamiento, y pueden interactuar entre sí de forma flexible. Una vez fijada una tarea, diseñan una estrategia con objetivos, aprendiendo nuevas habilidades o utilizando otro software”, expresó el informe.
Cabe resaltar que los sistemas de código abierto no tienen los mecanismos de seguridad que regularmente son agregados por las grandes compañías, lo que dificulta su control, en ese escenario se pueden esperar ciberataques contra infraestructuras y servicios públicos que los expertos aseguran son “significativamente más frecuentes y graves”.
LEA TAMBIÉN | CEO de DreamWorks: IA pone en peligro los empleos de animación
En un segundo escenario se hace referencia a las capacidades de los mecanismos generados con IA, estas automatizan varias tareas que hasta ahora estaban reservadas para los humanos y esto va generando que los modelos artificiales interactúen con el mundo físico.
A pesar de que la opinión pública confía en que la IA es segura y se limita a realizar las tareas para las que ha sido desarrollada, existe un debate interno en el que preocupa el impacto social de los avances sobre todo porque debido a esto se produce una reducción significativa de empleos.
Además, surgen dudas sobre la falta de control en torno a razonamientos de la IA y las consecuencias que esto podría generar en la toma de decisiones.
Asimismo, los expertos afirmaron en el documento que para el 2030, se anunciará una Inteligencia Artificial General definida como un sistema capaz de llevar a cabo cualquier tarea intelectual al alcance de los humanos.
Pese al escepticismo inicial, las pruebas apuntan a que se ha logrado ese hito.
El sistema “exhibe memoria a largo plazo, capacidad de razonamiento y de generar tareas complejas que requieran múltiples pasos de planificación. Puede funcionar de forma autónoma, ideando sus propios objetivos secundarios, con poca o ninguna supervisión humana. Este sistema parece capaz de realizar casi cualquier tarea cognitiva sin entrenamiento explícito”, detalló el informe.
El desarrollo incontrolado de esos modelos puede llevar a la aparición de una “superinteligencia”, una IA superior a cualquier humano y ese escenario está asociado a “consecuencias catastróficas”, sea por las acciones de la propia IA o bien por sus posibles usos por parte de “actores maliciosos”.
En un cuarto escenario, el estudio nos aseguró que las inexactitudes asociadas a los sistemas de IA también son una fuente de problemas.
“Se sobrestimó la utilidad y el impacto de los sistemas, y gran parte de la población experimentó pocos cambios en su estilo de vida”, describe.
Los gobiernos mundiales actualmente están advirtiendo sobre los riesgos de estos avances y en una declaración conjunta apuntaron las potenciales consecuencias “catastróficas” de la nueva tecnología.
Tomando en cuenta la desinformación, los gobiernos se declaran especialmente preocupados por las aplicaciones de la IA en terrenos como la ciberseguridad y la biotecnología.