Adsrekt

vip
Idade 0.6 Ano
Nível máximo 0
Ainda sem conteúdo
alguém conseguiu fazer um modelo de fala funcionar num Apple Watch.
não é uma demonstração de brinquedo. granite 4.0 1B de fala acabou de ficar em PRIMEIRO lugar na leaderboard do OpenASR.
aqui está o que é impressionante:
• 1B de parâmetros - metade do tamanho do granite 3.3 2B
• maior precisão na transcrição em inglês do que o modelo maior
• decodificação especulativa para inferência mais rápida em hardware minúsculo
• 6 idiomas - inglês, francês, alemão, espanhol, português, japonês
• bias na lista de palavras-chave para que reconheça nomes e siglas corretamente
a parte que ninguém está a f
Ver original
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
openai escaneou 1,2 MILHÕES de commits em 30 dias
eles encontraram 10.561 bugs de alta gravidade. 792 críticos.
em projetos dos quais provavelmente depende agora
openssh. gnutls. chromium. libssh. PHP.
estas não são repositórios de hobby. estas são as fundações sobre as quais toda a sua stack está construída. e os humanos perderam esses detalhes por anos
a segurança do codex não apenas sinaliza ruído como seu linter tendo um ataque de pânico. ela constrói contexto em todo o projeto, valida a descoberta, e depois propõe a correção real
essa é a diferença entre "aqui estão 4000 avisos que você i
Ver original
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Os meus limites do Codex foram atualizados pela 5ª vez esta semana
alguma novidade?
Ver original
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Você enviou 5 demos polidos. você tem ZERO usuários. o produto não foi o problema.
foi o marketing.
sei disso porque criei o fcksmm depois de ficar meses olhando para uma caixa de composição em branco enquanto meus projetos acumulavam poeira.
> "se eu construir algo bom o suficiente, as pessoas vão encontrar"
Essa é a mentira mais cara da comunidade de construir na pública. produtos bons morrem silenciosamente todos os dias.
o marketing não é performativo. é engenharia de distribuição. faz parte do stack assim como seu banco de dados e sua camada de autenticação.
você não enviaria sem tratamen
Ver original
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
openai lançou o GPT-5.4 Pro com ZERO avaliações de segurança
sem cartão de sistema. sem avaliação de risco pública. nada.
isto é provavelmente o melhor modelo do mundo neste momento para investigação e desenvolvimento em biologia, orquestração de operações de ciberataque e uso autónomo de computador - e eles lançaram-no como uma nota de atualização
não é a primeira vez também. o GPT-5.2 Pro seguiu o mesmo padrão. lançamento silencioso, sem documentação, sem revisão externa. já fizeram isto antes e ninguém os responsabilizou, por isso fizeram novamente
a openai está agora a lançar modelos de fr
Ver original
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
GPT 5.4 DICAS
pare de ativar a janela de contexto de 1 milhão. não está pronta. é teatro de UX e está queimando as suas builds vivas
testei o novo modelo em 3 dos meus próprios projetos. de forma completa. não é uma verificação de vibe - trabalho de produção real
aqui está o que ninguém está te dizendo:
a compreensão de tarefas abstratas melhorou SIGNIFICANTEMENTE. o modelo finalmente entende o que você está tentando fazer antes de você explicar cada passo
mas essa janela de contexto de 1 milhão de que todos estão hypando? NÃO TOQUE NELA. está incompleta. coloque seu contexto na pasta do proje
Ver original
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
pare de construir a tua IDEA. começa com o teu GTM.
este ano enviei 3 ferramentas. as que atingiram $5k MRR tinham uma coisa em comum - eu sabia de onde vinha o tráfego ANTES de escrever a linha 1 de código.
as que fracassaram tinham uma arquitetura melhor.
estás a sentar-te sobre 5 demos polidas neste momento. ZERO utilizadores. zero MRR. e ainda estás a ajustar o ciclo do agente em vez de fazer uma pergunta - de onde vêm os meus primeiros 50 utilizadores.
não é a tua ideia. não é a tua pilha tecnológica. não é o teu framework multi-agente.
a tua startup vive ou morre pela distribuição.
faz u
Ver original
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
novo gpt 5.4 parece incrível
>gpt 5.3 codex descreveu as suas ações em detalhe, mas acabou por produzir um código terrível
>gpt 5.2 não descreveu nada, mas funcionou melhor
>5.4 - combinou essas vantagens
gpt 5.4 ou Opus 4.6 agora ?
Ver original
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
gpt-5.4 está a chegar e 80% do COMPUTE será utilizado para garantir que não magoe os seus sentimentos, enquanto os outros 20% tentam lembrar-se de como raciocinar
Ver original
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
o seu agente de IA tem acesso root completo neste momento
um comando alucinado é tudo o que é preciso
> sudo rm -rf /
isso não é teórico
os ciclos agenticos geram comandos shell a partir de janelas de contexto que você não controla. o modelo não precisa ser MALICIOSO.
só precisa estar errado uma vez.
Ver original
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
o seu telefone sabe mais sobre si do que a sua esposa.
uma burner paga em crypto não tem histórico, não tem identidade, não tem amarra.
sem selfie de verificação. sem banco ligado. sem ansiedade às 3h da manhã sobre qual troca foi citada em intimação.
Ver original
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
o mito de que o python "gerencia a memória para você" é a razão pela qual seus agentes ficam sem memória (OOM) após 4 horas de uptime
executei 24 multi-agentes em paralelo no mês passado, consumindo 10x mais tokens do que uma única sessão por ZERO output utilizável
o verdadeiro problema não eram os tokens, mas a memória que ninguém estava monitorando
python usa contagem de referências mais um coletor de lixo cíclico. parece bem até você carregar arrays numpy através de extensões C que não decrementam referências corretamente. esses objetos NUNCA são coletados. eles simplesmente ficam lá, cresc
Ver original
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
a tua IA é uma CAIXA PRETA e é por isso que vai esgotar a tua carteira
a interpretabilidade mecanicista é como abrir um LLM e mapear os circuitos reais dentro dele
não é testes de vibes
não é "parece que funciona"
rastreio a nível de neurónio real de como o modelo implementa a lógica
agora mesmo 96% do tráfego que chega aos teus endpoints são bots a ler HTML bruto
o teu modelo está a tomar decisões que não podes auditar, rastrear ou explicar
e estás a deixá-lo a deter chaves de capital real
as equipas de segurança de IA corporativa não entendem como os seus próprios modelos funcionam
eles envo
Ver original
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
A taxa de receita da Anthropic acaba de atingir $20 BILHÃO
>$9 bilhão previsto para o final de 2025
>$14 bilhão há algumas semanas
>$19 bilhão agora
eles adicionaram $5 bilhão em SEMANAS
isso não é crescimento, é adoção empresarial a uma velocidade que não faz sentido, a menos que contratos massivos de API estejam sendo fechados simultaneamente.
Ver original
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Executei 24 sessões de múltiplos agentes no Codex ao mesmo tempo
que raio, OpenAI?
10x os tokens de uma única aba
a saída foi ZERO melhoria em relação a um prompt focado
> "comportamento emergente da colaboração entre agentes"
sim, o que emergiu foi a minha conta
vocês estão pagando para os agentes conversarem entre si, não para produzirem algo
agente A resume para o agente B que reformatta para o agente C que passa para o agente D que gera o mesmo JSON que você poderia ter obtido de um prompt limpo em 14 segundos
isso não é arquitetura, é um TEATRO de computação
Ver original
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Ativei 24 multi-agentes no Codex ao mesmo tempo
é HORRÍVEL
24 agentes a correr em paralelo consumindo 10x mais tokens do que uma única sessão e produzindo absolutamente nada que não pudesses obter numa aba e com um prompt claro
isto não é uma estrutura de agentes. isto é um forno de tokens com um spinner de carregamento
A OpenAI lançou uma funcionalidade que parece o futuro se olhares com atenção, mas no segundo em que realmente tentas construir algo com ela percebes que cada agente está apenas a repetir o mesmo contexto para si próprio várias vezes, consumindo o teu orçamento vivo
"iT's JuSt
Ver original
post-image
  • Recompensa
  • 1
  • Republicar
  • Partilhar
ybaservip:
Para a Lua 🌕
OpenClaw INÚTIL?
não queria escrever nada sobre openclaw sem realmente o ter usado primeiro
então usei-o. construí com ele. testei fluxos de trabalho. dei-lhe tempo honesto
aqui está a revisão honesta que ninguém pediu
atualmente, toda a cena em torno de agentes de IA parece uma competição de chat em grupo entre amigos. quem tem o agente mais fixe. quem tem a demo mais elegante. quem tem o screenshot com mais gostos
mas quando te sentas e tentas realmente SIMPLIFICAR algo com openclaw - substituir uma etapa no teu fluxo de trabalho ou cortar um processo manual - isso não acontece
ele adiciona
Ver original
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
a maioria das pessoas que fala sobre agentes de IA nunca construiu um
aqui está a arquitetura real neste momento
agente de chamada de ferramenta = cérebro llm + registo de funções + ciclo de execução
você define as ferramentas como esquemas estruturados. o modelo escolhe qual ferramenta chamar e passa os argumentos. seu runtime executa e alimenta o resultado de volta
esse é o ciclo completo. sem magia
frameworks modernos como langchain ou chamadas de funções do openai lidam com o roteamento. plataformas de ml na nuvem como vertex ou bedrock lidam com a escalabilidade da inferência para que voc
Ver original
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
CLAUDE está offline
não sei como escrever npm run dev agora
Ver original
post-image
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
  • Fixar