OpenAI ha intentado mantener en secreto durante todo el año qué hay detrás del modelo más potente de ChatGPT. En el vídeo de hoy os explicaré en qué consiste el funcionamiento de GPT-4 y su arquitectura de tipo MoE (Mixture-of-expert) que recientemente ha ganado mucha más importancia tras la salida del modelo open source Mixtral 8x7b, de la compañía Mistral AI.

blog post de Mistral AI sobre Mixtral 8x7b
news/mixtral-of-experts/” target=”_blank”>https://mistral.ai/news/mixtral-of-experts/

► Github del Colab con Mixtral 8x7b
https://github.com/dvmazur/mixtral-offloading

► Podcast de George Hotz
https://youtu.be/WJWHIZoBOj8?si=2xZGVrOQYOROKF-G

📹 EDICIÓN: Carlos Santana y Diego Gonzalez (Diocho)

— ¡MÁS DOTCSV! —-

📣 NotCSV – ¡Canal Secundario!
https://www.youtube.com/c/notcsv
💸 Patreon : https://www.patreon.com/dotcsv
👓 Facebook : Facebook.com/AI.dotCSV/” target=”_blank”>https://www.Facebook.com/AI.dotCSV/
👾 Twitch!!! : https://www.twitch.tv/dotcsv
🐥 Twitter : https://twitter.com/dotCSV
📸 Instagram : Instagram.com/dotcsv/” target=”_blank”>https://www.Instagram.com/dotcsv/

— ¡MÁS CIENCIA! —

🔬 Este canal forma parte de la red de divulgación de SCENIO. Si quieres conocer otros fantásticos proyectos de divulgación entra aquí:

http://scenio.es/colaboradores

source