Un grupo de antiguos y actuales empleados de OpenAI ha expresado preocupaciones sobre lo que perciben como una cultura de imprudencia y secretismo dentro de la compañía. Según informes del New York Times, estos individuos afirman que OpenAI no está tomando las medidas adecuadas para evitar que sus sistemas de Inteligencia Artificial se vuelvan peligrosos.
Daniel Kokotajlo, ex investigador de la división de gobernanza de OpenAI y uno de los organizadores del grupo, ha expresado su inquietud, señalando que "OpenAI está muy ansiosa por desarrollar la Inteligencia Artificial General (A.G.I.), y están avanzando de manera imprudente para ser los primeros en lograrlo". Los miembros del grupo sostienen que la empresa está priorizando las ganancias y el crecimiento en su búsqueda de desarrollar una IA capaz de realizar cualquier tarea humana.
En una carta abierta, el grupo de antiguos y actuales empleados insta a las principales empresas de IA, incluyendo OpenAI, a establecer una mayor transparencia y protecciones para los denunciantes. Además, solicitan el fin del uso de acuerdos de no desacreditación y no divulgación, así como el apoyo a una cultura de crítica abierta y la implementación de un proceso de informes anónimos para que los empleados puedan plantear preocupaciones relacionadas con la seguridad.
Las advertencias de este grupo de ex empleados y empleados actuales de OpenAI no deben ser subestimadas. Es esencial que las empresas de IA prioricen la seguridad y la transparencia en el desarrollo de esta poderosa tecnología.












Agregar Comentario