La ambición de crear inteligencia artificial más avanzada que la humana puede tener graves consecuencias: expertos advierten sobre el peligro de crear

En el ámbito de la inteligencia artificial, un grupo de expertos está lanzando una advertencia sobre los posibles riesgos de crear sistemas más avanzados que la inteligencia humana. Según estos expertos, la ambición de desarrollar una inteligencia artificial superinteligente puede tener graves consecuencias impredecibles. En esencia, se trata de crear sistemas que pueden suplantar la capacidad humana en múltiples áreas, lo que podría llevar a la creación de “dioses” en el espacio digital, capaces de tomar decisiones autónomas y fuera del control humano.

Index

Escándalo en OpenAI: Exempleado advierte sobre el peligro de crear dioses en el espacio digital

La empresa detrás de ChatGPT, OpenAI, se enfrenta a una crisis después de que un empleado clave renunciara debido a desacuerdos sobre las prioridades de la compañía. Jan Leike, responsable del equipo de 'Superalignment' de OpenAI, expresó públicamente su desacuerdo con la dirección de la empresa, afirmando que la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes.

La ambición de crear inteligencia artificial más avanzada que la humana puede tener graves consecuencias, advierten expertos. Leike, quién trabajó en el departamento de la empresa dedicado a buscar soluciones para dirigir o controlar una IA potencialmente superinteligente y evitar que se vuelva deshonesta, manifestó que es necesario gastar más recursos en prepararse para las próximas generaciones de modelos o en seguridad.

El exempleado de OpenAI expresó su preocupación por la velocidad a la que se está desarrollando la inteligencia artificial, y cómo esto puede llevar a consecuencias peligrosas si no se toman medidas de seguridad adecuadas. Construir máquinas más inteligentes que los humanos es una tarea intrínsecamente peligrosa, escribió Leike en una publicación en X.

La renuncia de Ilya Sutskever, cofundador de OpenAI

La renuncia de Ilya Sutskever, cofundador de OpenAI

Ilya Sutskever, cofundador y anterior jefe científico de OpenAI, también anunció su renuncia a la empresa. En una publicación en X, Sutskever expresó su agradecimiento hacia la empresa y sus colegas, y anunció que se embarcará en un nuevo proyecto que es muy significativo para él personalmente.

Sam Altman, líder de OpenAI, respondió a la noticia de la renuncia de Sutskever, describiéndola como muy triste y elogiando a su colega como una de las mentes más brillantes de nuestra generación.

La respuesta de OpenAI

Greg Brockman, presidente de OpenAI, posteó una respuesta en nombre de Altman y en el suyo propio, en la que reconoció la importancia de la seguridad en el desarrollo de la inteligencia artificial. Sabemos que no podemos imaginar todos los escenarios futuros posibles. Por lo tanto, necesitamos tener un circuito de retroalimentación muy estrecho, pruebas rigurosas., escribió Brockman.

La crisis en OpenAI es un recordatorio de la responsabilidad que asumen las empresas que desarrollan inteligencia artificial. La ambición de crear inteligencia artificial más avanzada que la humana puede tener graves consecuencias si no se toman medidas de seguridad adecuadas.

Jorge Vidal

Hola, soy Jorge, redactor jefe con amplia experiencia en el periodismo digital. En Diario Online, un periódico independiente de actualidad nacional española, me encargo de supervisar la redacción y publicación de noticias relevantes y veraces. Mi pasión por la información me impulsa a garantizar la calidad y objetividad en cada artículo que se publica en nuestra web. Con un enfoque en la veracidad y la imparcialidad, me esfuerzo por ofrecer a nuestros lectores una cobertura completa y rigurosa de los acontecimientos más importantes en España. ¡Gracias por confiar en nuestro trabajo en Diario Online!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir