Google se basa en el éxito de su lanzamiento Gemini con el lanzamiento de una nueva familia de modelos ligeros de IA llamada Gema. Los modelos Gemma son abiertos y están diseñados para que investigadores y desarrolladores los utilicen para innovar de forma segura con IA.
«Creemos que la publicación responsable de LLM es fundamental para mejorar la seguridad de los modelos de frontera, garantizar el acceso equitativo a esta tecnología innovadora, permitir una evaluación y análisis rigurosos de las técnicas actuales y permitir el desarrollo de la próxima ola de innovaciones». los investigadores detrás de Gemma escribieron en un reporte técnico.
Junto con Gemma, Google también está lanzando un nuevo Kit de herramientas de IA generativa responsable eso incluye capacidades de clasificación y depuración de seguridad, así como las mejores prácticas de Google para desarrollar modelos de lenguaje grandes.
Gemma viene en dos tamaños de modelo: 2B y 7B. Comparten muchos de los mismos componentes técnicos y de infraestructura que Gemini, que Google dice permite a los modelos Gemma «lograr el mejor rendimiento de su clase para sus tamaños en comparación con otros modelos abiertos».
Gemma también proporciona integración con JAX, TensorFlow y PyTorch, lo que permite a los desarrolladores cambiar entre marcos según sea necesario.
Los modelos se pueden ejecutar en una variedad de tipos de dispositivos, incluidos equipos portátiles, de escritorio, IoT, móviles y en la nube. Google también se asoció con NVIDIA para optimizar Gemma para su uso en las GPU de NVIDIA.
También se ha optimizado para su uso en Google Cloud, lo que permite beneficios como implementación con un solo clic y optimizaciones de inferencia integradas. Se puede acceder a él a través de Vertex AI Model Garden de Google Cloud, que ahora contiene más de 130 modelos de IA, y a través de Google Kubernetes Engine (GKE).
Según Google Cloud, a través de Vertex AI, Gemma podría usarse para respaldar tareas de IA generativa en tiempo real que requieren baja latencia o crear aplicaciones que puedan completar tareas de IA livianas como generación de texto, resúmenes y preguntas y respuestas.
«Con Vertex AI, los constructores pueden reducir los gastos operativos y centrarse en crear versiones personalizadas de Gemma que estén optimizadas para su caso de uso», escribió Burak Gokturk, vicepresidente y director general de Cloud AI en Google Cloud, en un entrada en el blog.
En GKE, los posibles casos de uso incluyen la implementación de modelos personalizados en contenedores junto con las aplicaciones, la personalización del servicio de modelos y la configuración de la infraestructura sin necesidad de aprovisionar nodos, y la integración de la infraestructura de IA de forma rápida y escalable.
Gemma fue diseñada para alinearse con los Principios de IA Responsable de Google y utilizó técnicas de filtrado automático para eliminar datos personales de los conjuntos de entrenamiento, aprendizaje reforzado a partir de comentarios humanos (RLHF) para alinear modelos con comportamientos responsables y evaluaciones manuales que incluyeron equipos rojos, pruebas adversas, y evaluaciones de las capacidades del modelo para resultados potencialmente malos.
Debido a que los modelos fueron diseñados para promover la investigación de IA, Google ofrece créditos gratuitos a los desarrolladores e investigadores que quieran utilizar Gemma. Se puede acceder a él de forma gratuita utilizando Kaggle o Colab, o los usuarios nuevos de Google Cloud pueden obtener un crédito de $300. Los investigadores también pueden solicitar hasta 500.000 dólares para sus proyectos.
“Más allá de las medidas de desempeño de última generación en tareas de referencia, estamos entusiasmados de ver qué nuevos casos de uso surgen de la comunidad y qué nuevas capacidades surgen a medida que avanzamos juntos en el campo. Esperamos que los investigadores utilicen Gemma para acelerar una amplia gama de investigaciones y esperamos que los desarrolladores creen nuevas aplicaciones, experiencias de usuario y otras funciones beneficiosas”, escribieron los investigadores.
Source link