OpenAI Lança Modelos de Código Aberto gpt-oss-120b e gpt-oss-20b
Editado por: Veronika Radoslavskaya
A OpenAI lançou dois modelos de linguagem de código aberto, gpt-oss-120b e gpt-oss-20b, projetados para raciocínio avançado e operação eficiente. O gpt-oss-120b possui 117 bilhões de parâmetros, enquanto o gpt-oss-20b tem 21 bilhões. Ambos são modelos mixture-of-experts (MoEs) e utilizam um esquema de quantização de 4 bits (MXFP4), permitindo uma inferência rápida.
O modelo gpt-oss-120b pode ser executado em uma única GPU, enquanto o gpt-oss-20b foi projetado para computadores pessoais com 16GB de memória. Os modelos se destacam em tarefas como codificação, matemática e consultas relacionadas à saúde.
Os modelos estão disponíveis nas plataformas Amazon Web Services (AWS), incluindo Amazon Bedrock e Amazon SageMaker AI. Os clientes da AWS podem construir aplicações de IA generativa com maior eficiência. Os modelos são acessíveis através do serviço Inference Providers da Hugging Face.
Os modelos foram treinados em um conjunto de dados apenas de texto, com ênfase em ciência, matemática e codificação. Os modelos são suportados pela licença Apache 2.0.
A Accenture publicou um estudo analisando o potencial de crescimento econômico da IA Generativa. A IA generativa pode aumentar a produtividade em vários setores.
A McKinsey também publicou estudos sobre a implementação da IA generativa, destacando a importância da adaptação e da integração da IA nos processos de negócios.
Fontes
mint
Amazon Will Offer OpenAI Models to Customers for First Time
OpenAI releases open-weight reasoning models optimized for running on laptops
OpenAI's first new open-weight LLMs in six years are here
Leia mais notícias sobre este tema:
Google Incorpora SynthID e C2PA ao Gemini, Democratizando a Verificação de Proveniência da IA
Alibaba Entra na Corrida dos Óculos Inteligentes com os Quark AI Glasses, Focando em Bateria para o Dia Todo
Perplexity Lança Funcionalidade de Memória para Assistentes de IA, Personalizando o Contexto em Todos os Modelos
Encontrou um erro ou imprecisão?
Vamos considerar seus comentários assim que possível.
