OpenAI tiene un equipo que garantiza la seguridad infantil

OpenAI estableció un equipo especializado en Seguridad Infantil, dedicado a abordar los incidentes relacionados con el uso de herramientas de IA

OpenAI estableció un equipo especializado en Seguridad Infantil, dedicado a abordar los incidentes relacionados con el uso de herramientas de Inteligencia Artificial (IA) por parte de usuarios menores de edad. El objetivo principal es garantizar que las tecnologías de la empresa no sean empleadas de manera perjudicial para los niños.

Bajo la dirección de Sam Altman, la empresa continúa implementando medidas para asegurar que sus innovaciones no afecten negativamente a los usuarios, especialmente a los menores.

La existencia de este equipo fue revelada a través de una oferta de empleo publicada en el sitio web de OpenAI, donde la compañía busca contratar un experto en políticas de seguridad infantil para integrarse a esta iniciativa.

Este equipo se encarga de gestionar procesos, incidentes y revisiones para salvaguardar el ecosistema en línea de OpenAI, colaborando estrechamente con el departamento legal y de políticas de plataforma e investigaciones.

El especialista contratado tendrá la responsabilidad de asegurar el cumplimiento de las políticas de la empresa respecto al contenido generado por IA en sus herramientas, como ChatGPT, para evitar la publicación de material sensible o perjudicial.

Además, se espera que el experto proporcione orientación sobre el cumplimiento de las políticas de contenido y contribuya a mejorar los procesos de revisión y respuesta relacionados con contenido confidencial.

OpenAI está enfocada en restringir el acceso a contenido inapropiado para menores, en línea con las leyes de privacidad y protección infantil. Recientemente, anunciaron una asociación con Common Sense Media para evaluar la idoneidad de sus tecnologías para usuarios jóvenes.

El objetivo es proporcionar un entorno seguro para los niños y educar sobre el uso responsable de herramientas como ChatGPT, fomentando una colaboración efectiva entre equipos de ingeniería, políticas e investigación.

Actualmente, OpenAI establece que herramientas como ChatGPT no son adecuadas para niños menores de 13 años, y requiere consentimiento de los padres o tutores para su uso por parte de usuarios entre 13 y 18 años.

La empresa hace hincapié en la supervisión de adultos al interactuar con estos servicios, incluso para aquellos que cumplen con los requisitos de edad, especialmente en contextos educativos.

K. Tovar

Fuente: SCC10

(Fuente imagen referencial: Levart_Photographer, Unsplash)

Visita nuestro canal de noticias en Google News y síguenos para obtener información precisa, interesante y estar al día con todo. También en Twitter e Instagram puedes conocer diariamente nuestros contenidos

También podría gustarte