Apple lanza ocho nuevos LLM abiertos

Apple ha lanzado ocho nuevos LLM pequeños como parte de CoreNet, que es la biblioteca de la empresa para entrenar redes neuronales profundas. Los modelos, llamados OpenELM (Modelos de lenguaje eficientes de código abierto), vienen en ocho opciones diferentes: cuatro son modelos previamente entrenados y cuatro están optimizados para instrucciones, y cada uno tiene tamaños de parámetros 270M, 250M, 1.1B y 3B. Debido al pequeño tamaño del modelo, los modelos deberían poder ejecutarse directamente en dispositivos en lugar de tener que volver a conectarse a un servidor para realizar cálculos. Según Apple, el objetivo de OpenELM es «potenciar y enriquecer la comunidad de investigación abierta proporcionando acceso a modelos de lenguaje de vanguardia». Actualmente, las plantillas solo están disponibles en Hugging Face y Apple ha puesto a disposición el código fuente. “La reproducibilidad y transparencia de los grandes modelos lingüísticos son cruciales para avanzar en la investigación abierta, garantizar la confiabilidad de los resultados y permitir investigaciones sobre los sesgos de los datos y los modelos, así como los riesgos potenciales. Con este fin, lanzamos OpenELM, un modelo de lenguaje abierto de vanguardia… Esta versión completa tiene como objetivo mejorar y fortalecer la comunidad de investigación abierta, allanando el camino para futuros esfuerzos de investigación abierta”, escribieron los investigadores de Apple en un artículo.

About Francisco

Check Also

Apollo GraphQL anuncia una importante actualización de GraphOS, que mejora la observabilidad y el rendimiento de la federación GraphQL a escala empresarial

Hoy en PlatformCon, Apollo GraphQL, el creador de la federación GraphQL, anunció que las nuevas …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *