Qué planea Meta en inteligencia artificial y nuevo chatbot

Read Time:1 Minute, 53 Second

Redacción: NotiPress / Pixel Media 4.0

Wall Street Journal reportó el 10 de septiembre que Meta ha comprado chips de entrenamiento IA Nvidia H100. El medio señala, esto es una medida de la compañía para reforzar su infraestructura y no depender de la plataforma Azure de Microsoft para entrenar su nuevo Chatbot. Según el informe, Zuckerberg planea lanzar un nuevo modelo de lenguaje de Inteligencia Artificial (IA) en 2024 y este será de código abierto.

Siguiendo la información de The verge, las fuentes anónimas reportaron, la IA estará dirigida a producción y análisis de texto, por lo cual se cree, esta buscará competir con chatbots como el GPT 4 de OpenAI, Bard de Google, entre otros. Sin embargo, fuentes cercanas a Zuckerberg confirman, el dueño de Meta ha presionado para que la nueva IA sea de acceso libre y pueda ser modificada por los usuarios. Ante esto, los equipos legales de la compañía han expresado su temor de que pueda ser utilizada con fines maliciosos.

Medios especializados como Semianalysis han hecho una serie de indagaciones sobre la competencia de las IA de las grandes empresas internacionales. De acuerdo con el análisis “El rico en GPU”, la carrera de los modelos de lenguaje está determinada por el poder de las empresas para adquirir GPU, es decir, Chips para entrenar a las inteligencias artificiales. Esto se debe a que además de la infraestructura, el acceso a esta es utilizado por las compañías para reclutar a los mejores investigadores de la industria. Diferentes medios especializados, señalan, Meta será la segunda empresa tecnológica con mayor número de GPU H100 de Nvidia. Lo cual colocaría a Meta por detrás de Google en cuanto a capacidad de desarrollo y entrenamiento de Inteligencia Artificial.

Smianalysis resalta, la apuesta de código abierto de Meta podría darle cierta ventaja al nuevo modelo sobre otros, como GPT 4 o Bard. Pues los proyectos de código abierto podrían permitir a meta enfocarse en arquitecturas de modelos dispersas como MoE y entrenar así conjuntos dispersos de datos más grandes e implementados a decodificación especulativa. Ante ello, se estima, el nuevo modelo de lenguaje de Meta sea más potente que el recientemente lanzado, Llama 2, e incluso con más capacidad de entrenamiento, infraestructura y adaptación que GTP 4.

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Previous post Gana Alejandra Valencia plata en tiro con arco en mundial en Sonora
Next post Niega Gobierno de México que cárteles de droga sean el 5to empleador del país