- </hype>
- Posts
- </hype> OpenAI inventa "economia" modo raiz: pague menos, espere mais ~genial, né?~
</hype> OpenAI inventa "economia" modo raiz: pague menos, espere mais ~genial, né?~
.join("Recurso 'Visão' chega ao Microsoft Copilot para todos usuários do Edge")
sudo apt-get update
OpenAI inventa "economia" modo raiz: pague menos, espere mais ~genial, né?~
A OpenAI acaba de anunciar o Flex processing, uma nova opção de API que oferece preços 50% mais baixos em troca de tempos de resposta mais lentos e "disponibilidade ocasional de recursos". Essa novidade é direcionada para cargas de trabalho assíncronas e tarefas não críticas, como:
Avaliações de modelos
Enriquecimento de dados
Tarefas em lote que não precisam de resposta imediata
Para o modelo o3 (lançado anteontem), o Flex processing reduz o custo para $5/milhão de tokens de entrada e $20/milhão de tokens de saída (em comparação com os $10/M e $40/M normais). Para o o4-mini, os preços caem para $0,55/M entrada e $2,20/M saída (vs. $1,10/M e $4,40/M).
💰 Economia na prática: 1 milhão de tokens equivale a ~750.000 palavras. Para colocar em perspectiva, a trilogia completa de "O Senhor dos Anéis" (com aproximadamente ~1.200 páginas e ~480.000 palavras) como input custaria apenas $3.20 com o3 Flex vs $6.40 no modo padrão - uma economia de 50%! Imagine esse desconto aplicado em larga escala: processar 100 livros do tamanho de LOTR economizaria $320. Se você estiver processando grandes volumes de texto como datasets ou livros inteiros, essa economia rapidamente se torna substancial.
Sem grande impacto nas implementações atuais
A implementação é bem simples - basta adicionar o parâmetro service_tier: "flex"
nas suas requisições de API. Uma dica: aumente o timeout padrão de 10 minutos para até 15 minutos, já que o processamento pode ser mais lento. E se os recursos estiverem indisponíveis momentaneamente (erro 429), considere implementar retry com backoff exponencial.
import OpenAI from "openai";
const client = new OpenAI({
timeout: 15 * 1000 * 60, // 15 minutos de timeout
});
const response = await client.responses.create({
model: "o3",
instructions: "Analise este texto",
input: "<texto longo aqui>",
timeout: 15 * 1000 * 60,
service_tier: "flex", // Ativa o modo econômico!
});
Fica a reflexão: sacrificar velocidade por economia vale a pena para suas aplicações? Ou você prefere sempre o desempenho máximo independente do custo?
Recurso "Visão" chega ao Microsoft Copilot para todos usuários do Edge

A Microsoft anunciou ontem que o Copilot Vision, recurso que permite ao Copilot "ver" o que está na tela do navegador, agora está disponível gratuitamente para todos os usuários do Edge nos EUA. Anteriormente, o recurso era exclusivo para assinantes do Copilot Pro.
O Copilot Vision permite que a IA veja e compreenda o conteúdo da página que você está navegando, respondendo perguntas sobre ela ou sugerindo próximos passos usando linguagem natural. É como ter um assistente olhando para a tela junto com você!
No momento, o recurso funciona apenas com websites específicos como Wikipedia, Amazon, Target e outros selecionados pela Microsoft. Quando ativado, o Copilot aparece na parte inferior do navegador, pronto para interagir com o conteúdo visível.
A Microsoft garante que nenhum dado visualizado pelo Copilot Vision é armazenado para treinamento, e tudo é excluído após o encerramento da sessão.
PUZZLE DA SEMANA
Só no JavaScript™ - Vote no seu resultado favorito enviando um email com o assunto "js-quirks" e o número para [email protected]
// Qual dessas comparações retorna 'true'?
const opcao1 = [] == false;
const opcao2 = [1,2] + [3,4] === "1,23,4";
const opcao3 = NaN === NaN;
const opcao4 = "5" - 3 === 2;
const opcao5 = null >= 0;
Deep Dive → Serverless é scam?
The Dev Hype
sudo apt-get update
para essa edição de quarta-feira!
Serverless: Muito Além do Artigo Viral
Um artigo recente no Dev.to com o título "Serverless is a Scam" pegou fogo nas comunidades de desenvolvimento. Mas por trás do título provocativo, o que realmente há?
O Contexto Crítico
Jonas Scholz, fundador da Sliplane.io, publicou um texto demolidor sobre serverless. A pergunta que não quer calar: até que ponto esse artigo é uma análise técnica genuína ou mais uma peça de marketing para sua própria solução de containers?
Sinais de um Possível Viés
Marketing Disfarçado
Autor é fundador de uma empresa de containers
Artigo critica fortemente uma tecnologia concorrente
Texto promove implicitamente sua própria solução
Argumentos Técnicos Relevantes Apesar do potencial viés, Scholz levanta pontos técnicos importantes:
Limites rígidos de execução
Complexidade de precificação
Desafios com estado e persistência
A Perspectiva da Netflix
Em contrapartida, a Netflix - uma empresa que realmente opera em escala massiva - oferece uma visão mais nuançada.
Lições de Quem Realmente Usa Serverless
Em artigos técnicos de 2017, a equipe da Netflix revelou:
Uma plataforma de scripting dinâmico (essencialmente serverless)
Suporte a milhares de dispositivos
Reconhecimento de benefícios e limitações
Insights Principais:
Serverless simplifica desenvolvimento
Introduz novos desafios operacionais
Não é solução universal
Análise Crítica
Pontos do Artigo de Scholz que Fazem Sentido
Complexidade de gerenciamento
Custos potencialmente opacos
Limitações de execução
Pontos Contestáveis
Generalização excessiva
Ausência de contextos específicos de uso
Viés de marketing evidente
Quando Serverless Faz Sentido
Funções event-driven
Webhooks
Cargas de trabalho intermitentes
Prototipação rápida
Modelos de IA/ML com execução esporádica
Reflexão Final
"Tecnologia não é religião. Cada ferramenta tem seu lugar certo - o segredo é conhecer seus limites."
Recomendação Técnica
Faça provas de conceito
Analise casos de uso específicos
Compare custos reais
Considere a complexidade operacional
Não caia em generalizações
Links para Aprofundamento:
sudo shutdown --reboot=monday
Esta newsletter está em constante desenvolvimento (always beta).
Estou aprendendo a cada edição e seu feedback é essencial!
Compartilhe com outros devs que podem gostar e me conte o que achou:
O que você quer ver nas próximas edições?
Algum tema específico que devemos abordar?
Sugestões para melhorar o formato?
Todo pull request de ideias é bem-vindo!