Apresentando "Construindo com Llama 4." Este curso curto foi criado com @Meta @AIatMeta, e ensinado por @asangani7, Diretor de Engenharia de Parceiros da equipe de IA da Meta. O novo Llama 4 da Meta adicionou três novos modelos e introduziu a arquitetura Mixture-of-Experts (MoE) à sua família de modelos de pesos abertos, tornando-os mais eficientes para servir. Neste curso, você trabalhará com dois dos três novos modelos introduzidos no Llama 4. O primeiro é o Maverick, um modelo de 400B parâmetros, com 128 especialistas e 17B parâmetros ativos. O segundo é o Scout, um modelo de 109B parâmetros com 16 especialistas e 17B parâmetros ativos. Maverick e Scout suportam janelas de contexto longo de até um milhão de tokens e 10M tokens, respectivamente. Este último é suficiente para suportar a entrada direta de repositórios GitHub bastante grandes para análise! Em lições práticas, você construirá aplicativos usando as novas capacidades multimodais do Llama 4, incluindo raciocínio através de várias imagens e ancoragem de imagens, onde você pode identificar elementos em imagens. Você também usará a API oficial do Llama, trabalhará com as habilidades de longo contexto do Llama 4 e aprenderá sobre as mais novas ferramentas de código aberto do Llama: sua ferramenta de otimização de prompts que melhora automaticamente os prompts do sistema e o kit de dados sintéticos que gera conjuntos de dados de alta qualidade para ajuste fino. Se você precisa de um modelo aberto, o Llama é uma ótima opção, e a família Llama 4 é uma parte importante do kit de ferramentas de qualquer desenvolvedor de GenAI. Através deste curso, você aprenderá a chamar o Llama 4 via API, usar suas ferramentas de otimização e construir recursos que abrangem texto, imagens e grandes contextos. Por favor, inscreva-se aqui:
57,46K