Regulación de lenguajes de IA debe ir a modelos grandes
El CEO de OpenAI aseguró que la regulación a pequeños modelos "no tiene sentido"
El CEO de OpenAI, Sam Altman, cree que la regulación para los pequeños modelos de lenguaje impulsados por Inteligencia Artificial (IA) «no tiene sentido» y apuesta por regular de cara a los modelos grandes como, en este caso, ChatGPT, porque son «los que realmente pueden hacer daño».
Así lo expresó el director ejecutivo de la compañía creadora de herramientas como Whisper y Dall-E2, en un coloquio celebrado este lunes en la IE University, donde ha estado acompañado por el científico de investigación de OpenAI Mo Bavarian; el director ejecutivo del Programa Owners Scaleup, Joe Haslam; y la cofundadora y CEO de Clibrain, Elena González-Blanco.
Durante la ponencia, el CEO de OpenAI remarcó que la regulación es «muy importante», pero también ha puesto énfasis en que sobrerregular «no es bueno» ya que, en el caso de las pequeñas compañías de modelos de lenguajes, cortaría su capacidad de innovación y de creación.
Igualmente, Altman remarcó la importancia de la privacidad y la preocupación que existe en torno a esta cuestión a todos los niveles. En este sentido, aseguró que desde la compañía continuarán «trabajando con otros gobiernos alrededor del mundo» para conseguir mejorar los modelos de lenguaje impulsados por IA y proteger la privacidad.
Además, apuntó que desde OpenAI quieren llevar a cabo tecnología con la que «la gente se encuentre cómoda y segura». «Queremos hacer lo que la gente quiera. Queremos crear el producto que la gente quiera utilizar», en referencia al trabajo que han estado llevando a cabo con ChatGPT para mejorar aspectos como la privacidad, la seguridad de los datos y la calidad de la información.
Fuente: dpa
(Fuente imagen referencial: Unsplash+)
Visita nuestro canal de noticias en Google News y síguenos para obtener información precisa, interesante y estar al día con todo. También en Twitter e Instagram puedes conocer diariamente nuestros contenidos