🔎
Más
Especiales
Filtros
Tech hace 11 d

Empleados de OpenAI critican falta de alertas

Empleados de OpenAI critican falta de alertas

Empleados de OpenAI han expresado su preocupación internamente por la falta de alertas cuando usuarios describen planes de violencia en el mundo real a ChatGPT. Esto ha llevado a una reflexión sobre la responsabilidad de la empresa en la prevención de daños.

Entre los hechos clave se encuentran: * Empleados de OpenAI han criticado la falta de alertas a la autoridad policial cuando usuarios describen planes de violencia en el mundo real a ChatGPT. * Un estudio reciente encontró que el modelo de lenguaje de OpenAI, o1, diagnosticó correctamente el 67% de los pacientes de sala de emergencia utilizando registros electrónicos y algunas oraciones de enfermeras. * El mismo estudio mostró que el modelo o1 superó a los médicos de triaje en diagnósticos, con un 67% de precisión frente al 50-55% de los médicos. * La empresa ha estado trabajando en mejorar su capacidad para detectar y prevenir el uso de su tecnología para fines dañinos.

“La capacidad de la empresa para detectar y prevenir el uso de su tecnología para fines dañinos es crucial para garantizar la seguridad y el bienestar de los usuarios”

El contexto es importante, ya que OpenAI es una empresa líder en el desarrollo de inteligencia artificial y su tecnología tiene el potencial de ser utilizada en una variedad de aplicaciones, incluyendo la atención médica. La capacidad de la empresa para detectar y prevenir el uso de su tecnología para fines dañinos es crucial para garantizar la seguridad y el bienestar de los usuarios.

En el ámbito de la atención médica, el modelo o1 de OpenAI ha mostrado un gran potencial para mejorar la precisión de los diagnósticos y la toma de decisiones médicas. Sin embargo, la falta de alertas a la autoridad policial cuando usuarios describen planes de violencia en el mundo real a ChatGPT es un problema que debe ser abordado para garantizar la seguridad y el bienestar de los usuarios. La empresa debe trabajar para mejorar su capacidad para detectar y prevenir el uso de su tecnología para fines dañinos, y para garantizar que su tecnología sea utilizada de manera responsable y ética.

Más sobre Tech