sábado, julio 6, 2024
sábado, julio 6, 2024

Q*: un proyecto secreto de OpenAI que podría amenazar a la humanidad

Luego de muchos días de incertidumbre y novedades para la empresa OpenAI y todavía con muchas incógnitas sobre el despido y regresó de su CEO, Sam Altman, ahora este trabajará con una junta directiva renovada y nuevos proyectos.

La opinión publica sugiere como la posibilidad del despido que surgieron algunas preocupaciones de seguridad relacionadas al Q*, un proyecto secreto de OpenAI que, según investigadores de la compañía, podría amenazar a la humanidad.

El martes, luego de que el carismático Altman volviera a la empresa como director ejecutivo, dos fuentes le dijeron al medio de comunicación Reuters que varios investigadores de la compañía escribieron una carta para que este fuera despedido definitivamente.

Esto investigadores habían advertido de un poderoso descubrimiento de inteligencia artificial (IA) que, según explicaron, podría amenazar a la humanidad, el Q* pronunciado Q-Star.

LEA TAMBIÉN | Sam Altman vuelve a OpenAI como director ejecutivo

“Las fuentes citaron la carta como uno de los factores de una larga lista de quejas de la junta que condujeron al despido de Altman, entre las que se encontraban las preocupaciones por la comercialización de avances antes de comprender las consecuencias”, aseveró el reportaje de Reuters.

Otros investigadores piensan que el Q* puede suponer un gran avance en la búsqueda de la reconocida como “Inteligencia Artificial Fuerte” o como lo define OpenAI ”sistemas autónomos que superan a los humanos en la mayoría de las tareas de valor económico”.

La potencia de esta herramienta también genera preocupación, este tipo de tecnologías son buenas para escribir o traducir idiomas al predecir la siguiente palabra basándose en estadísticas.

Sin embargo, las respuestas a las preguntas pueden variar bastante pero, que una IA pueda hacer calculo matemático, donde solo hay una respuesta correcta, implica automáticamente que esta tecnología tendrá una capacidad de razonamiento similar a la inteligencia humana.

Por esta razón, investigadores plantearon a la anterior junta directiva de OpenAI sus preocupaciones y el peligro potencial para la humanidad que representan este tipo de inteligencias.

Asimismo, el lunes pasado, Ilya Sutskever, uno de los miembros de la anterior junta directiva de OpenAI, dio declaraciones a través de sus redes sociales expresando su preocupación.

“Lamento profundamente mi participación en las acciones de la junta. Nunca tuve la intención de dañar OpenAI. Me encanta todo lo que hemos construido juntos y haré todo lo que pueda para reunir la empresa” aseveró.

Lo último