Microsoft trabaja en un modelo de IA con 500.000 millones de parámetros para competir con Google, OpenAI y Anthropic

Microsoft está en proceso de desarrollo de un modelo de Inteligencia Artificial (IA), conocido internamente como MAI-1.

(Leer más: ¿Llegó la hora de revaluar el uso de celulares y redes sociales en colegios?). 

Este modelo maneja la cifra de 500.000 millones de parámetros, que lo posiciona como un competidor directo frente a los modelos de última generación de grandes tecnológicas como Google, Anthropic y OpenAI. 

La relevancia de MAI-1 radica no solo en su tamaño, sino también en que es “lo suficientemente grande” para marcar una diferencia en el campo de la inteligencia artificial.

El equipo a cargo de este ambicioso proyecto está liderado por Mustafa Suleyman, exlíder de la IA en Google y actual director ejecutivo de la startup Inflection AI.

(Seguir leyendo: Con Xiaomi, descubra el regalo perfecto para mamá). 

Este dato fue revelado recientemente por ‘The Information’, medio que también destacó que MAI-1 es significativamente más grande que cualquier modelo de código abierto previamente desarrollado por Microsoft.

Esto implica que el modelo, al contar con aproximadamente 500.000 millones de parámetros, demandará un mayor volumen de datos, así como recursos adicionales en potencia de computación y entrenamiento, incrementando así sus costos, de acuerdo con fuentes consultadas por este medio.

En términos de aplicaciones prácticas, se espera que MAI-1 se base en tecnologías y datos de formación de Inflection AI, entidad conocida por su enfoque en la creación de IA personalizada.

(Le puede interesar: El costoso rompimiento con Israel en TIC e inversión en innovación / Análisis del Editor Multimedia). 

Entre sus desarrollos más destacados se encuentra Pi, un ‘chatbot’ diseñado para adaptar su respuesta según los intereses y necesidades específicas de los usuarios.

Este desarrollo se enmarca dentro de una serie de innovaciones en el ámbito de la IA por parte de Microsoft. Recientemente, la empresa lanzó Phi-1, un modelo con 1.300 millones de parámetros y su actualización Phi-1.5, que mostró un rendimiento comparable al de modelos hasta cinco veces mayores.

La última iteración, Phi-2, ha sido capaz de mostrar resultados de razonamiento y comprensión de lenguaje con un rendimiento “de vanguardia” entre los modelos con menos de 13.000 millones de parámetros.

Más noticias

*Esta información fue reescrita con la asistencia de una inteligencia artificial basada en información de Europa Press, y contó con la revisión de una periodista y un editor.

Comments (0)
Add Comment