Qué planea Meta en inteligencia artificial y nuevo chatbot
Redacción: NotiPress / Pixel Media 4.0
Wall Street Journal reportó el 10 de septiembre que Meta ha comprado chips de entrenamiento IA Nvidia H100. El medio señala, esto es una medida de la compañía para reforzar su infraestructura y no depender de la plataforma Azure de Microsoft para entrenar su nuevo Chatbot. Según el informe, Zuckerberg planea lanzar un nuevo modelo de lenguaje de Inteligencia Artificial (IA) en 2024 y este será de código abierto.
Siguiendo la información de The verge, las fuentes anónimas reportaron, la IA estará dirigida a producción y análisis de texto, por lo cual se cree, esta buscará competir con chatbots como el GPT 4 de OpenAI, Bard de Google, entre otros. Sin embargo, fuentes cercanas a Zuckerberg confirman, el dueño de Meta ha presionado para que la nueva IA sea de acceso libre y pueda ser modificada por los usuarios. Ante esto, los equipos legales de la compañía han expresado su temor de que pueda ser utilizada con fines maliciosos.
Medios especializados como Semianalysis han hecho una serie de indagaciones sobre la competencia de las IA de las grandes empresas internacionales. De acuerdo con el análisis “El rico en GPU”, la carrera de los modelos de lenguaje está determinada por el poder de las empresas para adquirir GPU, es decir, Chips para entrenar a las inteligencias artificiales. Esto se debe a que además de la infraestructura, el acceso a esta es utilizado por las compañías para reclutar a los mejores investigadores de la industria. Diferentes medios especializados, señalan, Meta será la segunda empresa tecnológica con mayor número de GPU H100 de Nvidia. Lo cual colocaría a Meta por detrás de Google en cuanto a capacidad de desarrollo y entrenamiento de Inteligencia Artificial.
Smianalysis resalta, la apuesta de código abierto de Meta podría darle cierta ventaja al nuevo modelo sobre otros, como GPT 4 o Bard. Pues los proyectos de código abierto podrían permitir a meta enfocarse en arquitecturas de modelos dispersas como MoE y entrenar así conjuntos dispersos de datos más grandes e implementados a decodificación especulativa. Ante ello, se estima, el nuevo modelo de lenguaje de Meta sea más potente que el recientemente lanzado, Llama 2, e incluso con más capacidad de entrenamiento, infraestructura y adaptación que GTP 4.
Average Rating