OpenAI, Microsoft, Google de Alphabet y Anthropic están lanzando un foro para regular el desarrollo de grandes modelos de aprendizaje automático, dijeron el miércoles los líderes de la industria de la inteligencia artificial.
El grupo se centrará en garantizar el desarrollo seguro y responsable de los llamados «modelos de IA de frontera» que superan las capacidades presentes en los modelos existentes más avanzados.
Son modelos de base altamente capaces que podrían tener capacidades peligrosas suficientes para plantear riesgos graves para la seguridad pública.
Los modelos de IA generativa, como el que está detrás de chatbots como ChatGPT, extrapolan grandes cantidades de datos a alta velocidad para compartir respuestas en forma de prosa, poesía e imágenes.
Si bien los casos de uso para tales modelos son muchos, los organismos gubernamentales, incluida la Unión Europea y los líderes de la industria, incluido el director ejecutivo de OpenAI, Sam Altman, han dicho que se necesitarían medidas de protección adecuadas para abordar el riesgo que plantea la IA.
El organismo de la industria, Frontier Model Forum, trabajará para avanzar en la investigación de seguridad de IA, identificar las mejores prácticas para el despliegue de modelos de IA de frontera y trabajar con legisladores, académicos y empresas.
Pero no participará en cabildeo con los gobiernos, dijo un portavoz de OpenAI.
El primer producto EV de Liberty Insurance tiene como objetivo brindar mayor tranquilidad a los propietarios de Tesla
«Las empresas que crean tecnología de inteligencia artificial tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano”, dijo el presidente de Microsoft, Brad Smith, en un comunicado.
El foro creará una junta asesora en los próximos meses y también organizará la financiación con un grupo de trabajo y creará una junta ejecutiva para liderar sus esfuerzos.
¡Síguenos en nuestras redes sociales y descargar la app!