OpenAI crea Consejo de Seguridad, Entrena Modelo de IA de Próxima Generación en Medio de Controversias

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

OpenAI ha establecido un Consejo de Seguridad para supervisar las decisiones de seguridad y ha comenzado a entrenar su próximo modelo de IA, lo que genera controversia sobre sus prioridades y compromiso con la ética.

OpenAI, la organización de investigación de inteligencia artificial cofundada por Elon Musk, ha dado pasos importantes en el desarrollo de tecnologías de vanguardia. Su sistema GPT-4, que impulsa el popular chatbot ChatGPT, es un ejemplo de sus avances. Sin embargo, en las últimas semanas, la empresa se ha visto envuelta en controversias relacionadas con la seguridad, la ética y las prioridades de desarrollo.

En un esfuerzo por abordar las preocupaciones de seguridad, OpenAI ha creado un nuevo Consejo de Seguridad. Este comité está compuesto por un grupo diverso de expertos, incluyendo ejecutivos de OpenAI, miembros de la junta y especialistas técnicos y de políticas. El objetivo principal del Consejo es garantizar que las prácticas de desarrollo de IA de OpenAI se prioricen la seguridad y se alineen con principios éticos.

Paralelamente a la creación del Consejo de Seguridad, OpenAI ha anunciado el inicio del entrenamiento de su próximo modelo de IA. Se espera que este nuevo modelo supere las capacidades del sistema GPT-4, posicionándose como líder en la industria tanto en capacidad como en seguridad.

Controversias y Preocupaciones

El renovado enfoque de OpenAI en la seguridad se produce en un momento de agitación interna y escrutinio público. Recientemente, la empresa ha enfrentado críticas por parte de algunos de sus propios investigadores, quienes han expresado su preocupación por que la seguridad se ha visto relegada a un segundo plano en favor del desarrollo de «productos llamativos». Estas críticas han llevado a la renuncia de algunos investigadores clave, incluyendo a Ilya Sutskever, cofundador y científico jefe de OpenAI.

Además de las preocupaciones internas, OpenAI también ha sido objeto de acusaciones de suplantación de voz en su chatbot ChatGPT. Algunos usuarios han señalado que la voz del chatbot se asemeja notablemente a la de la actriz Scarlett Johansson. Si bien OpenAI ha negado cualquier intención de suplantación, el incidente ha generado un debate sobre las implicaciones éticas del contenido generado por IA y el potencial de mal uso.

Una Conversación Más Amplia sobre la Ética de la IA

A medida que el campo de la inteligencia artificial continúa evolucionando rápidamente, es fundamental que empresas como OpenAI se involucren en un diálogo y colaboración continuos con investigadores, formuladores de políticas y el público en general. Las recomendaciones presentadas por el Consejo de Seguridad de OpenAI y el compromiso de la empresa con la transparencia son pasos positivos en la dirección correcta. Sin embargo, solo el tiempo dirá si estas medidas serán suficientes para abordar las preocupaciones más amplias sobre la seguridad y la ética de la IA.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo