RESEARCHarXiv CS.LG·1d atrás

Parameter Efficiency Is Not Memory Efficiency: Rethinking Fine-Tuning for On-Device LLM Adaptation

Este trabalho desafia a suposição de que PEFT garante eficiência de memória para LLMs em dispositivos, demonstrando que métodos como LoRA podem falhar devido a tensores intermediários. Ele introduz LARS, uma nova estrutura que otimiza o subespaço de ativação para desacoplar o consumo de memória do comprimento da sequência, resultando em uma redução média de 33,54% no uso de memória.

Memory OptimizationOn-Device AIFine-TuningPEFT
54
RESEARCHarXiv CS.LG·1d atrás

Learning Without Adversarial Training: A Physics-Informed Neural Network for Secure Power System State Estimation under False Data Injection Attacks

Esta pesquisa propõe uma Rede Neural Informada pela Física (PINN) para a estimativa segura do estado de sistemas de energia, projetada para defender-se contra ataques de injeção de dados falsos (FDIAs) constrangidos por furtividade. O modelo dispensa o treinamento adversarial, utilizando uma formulação de ponderação dinâmica de perda para escalar termos de ajuste de dados e resíduos físicos durante o treinamento.

security
54
RESEARCHarXiv CS.LG·1d atrás

Avionic Main Fuel Pump Simulation and Fault-Diagnosis Benchmark

Este artigo apresenta uma co-simulação de alta fidelidade, informada pela física, de um sistema de bomba de combustível principal de aeronave para gerar dados de detecção e diagnóstico de falhas. Ele combate a escassez de dados em sistemas ciber-físicos críticos, demonstrando sua viabilidade com modelos de IA não supervisionados como RNN-VAE e SOM-VAE.

fault diagnosisanomaly detectioncyber-physical systemsMachine Learning
54
RESEARCHarXiv CS.LG·1d atrás

CoFi-PGMA: Counterfactual Policy Gradients under Filtered Feedback for Multi-Agent LLMs

CoFi-PGMA é uma nova estrutura para otimizar o aprendizado em sistemas multi-agente de LLMs, abordando feedback filtrado em cenários de roteamento e colaboração. Propõe um objetivo de treinamento contrafactual por agente baseado na contribuição marginal para corrigir o sinal de aprendizado.

LLMsReinforcement LearningMulti-Agent Systems
54
RESEARCHarXiv CS.LG·1d atrás

Stochastic KV Routing: Enabling Adaptive Depth-Wise Cache Sharing

Este trabalho aborda o alto consumo de memória do cache Key-Value (KV) em modelos transformer, propondo uma otimização através da dimensão de profundidade. A pesquisa introduz um método para compartilhamento de cache entre camadas, demonstrando que o descarte do cache de uma camada pode ser eficiente sem perda de informação e sugere um treinamento com atenção aleatória entre camadas.

deep learningMemory Optimizationlarge language modelsTransformers
55
RESEARCHarXiv CS.LG·1d atrás

KARL: Mitigating Hallucinations in LLMs via Knowledge-Boundary-Aware Reinforcement Learning

KARL é um novo framework projetado para mitigar alucinações em grandes modelos de linguagem, permitindo-lhes abster-se apropriadamente de perguntas além de seu conhecimento. Ele faz isso através de uma Recompensa Sensível aos Limites do Conhecimento que estima dinamicamente o saber do modelo e uma Estratégia de Treinamento RL em Duas Etapas que previne a cautela excessiva.

Reinforcement LearninghallucinationsAI safetyLLM
54
RESEARCHarXiv CS.LG·1d atrás

BiTA: Bidirectional Gated Recurrent Unit-Transformer Aggregator in a Temporal Graph Network Framework for Alert Prediction in Computer Networks

Esta pesquisa propõe o BiTA, um Agregador Bidirecional Gated Recurrent Unit-Transformer, para aprimorar a previsão proativa de alertas em redes de computadores. Ele aprimora as Redes Neurais Gráficas Temporais ao codificar dependências sequenciais bidirecionais e relações contextuais de longo alcance, capturando padrões temporais complexos de ataques.

securityMachine Learning
54
RESEARCHarXiv CS.LG·1d atrás

AutoCompress: Critical Layer Isolation for Efficient Transformer Compression

AutoCompress é um método de compressão de transformadores que isola a Camada 0, considerada crucial, mantendo-a em dimensão total. Aplicado ao GPT-2 Medium, ele alcança uma redução de 59,5% nos parâmetros com um desempenho significativamente superior a um baseline uniforme.

ai-architecturemodel efficiencydeep learningGPT-2
54
ARTICLEDEV.to AI·1d atrás

Building H.U.N.I.E.: A Persistent Memory Engine for AI Agents

O conteúdo aborda uma falha fundamental nos sistemas de IA atuais: a incapacidade de reter memória entre sessões, impedindo objetivos de longo prazo ou operação autônoma. Ele apresenta H.U.N.I.E., um motor de memória persistente e consciente da confiança, como solução para fornecer aos agentes de IA o contexto e a capacidade de aprendizado necessários.

ai-architectureAutonomous AIAI agentsAI memory
54
ARTICLEDEV.to AI·1d atrás

I built a self-hosted dashboard for running Claude Code across 8 machines

Quatro engenheiros construíram um painel de controle auto-hospedado para gerenciar sessões de Claude Code em oito máquinas, economizando 30 minutos por dia. A ferramenta oferece uma visão centralizada, a capacidade de retomar sessões e um arquivo pesquisável de todo o histórico de conversas do Claude.

Self-hostingproductivityAnthropic Claudedeveloper tools
54
ARTICLEDEV.to AI·1d atrás

B2B Appointment Setting Services in the USA: Costs, ROI & Why Companies Are Outsourcing in 2026

Em 2026, os serviços terceirizados de agendamento de reuniões B2B nos EUA tornam-se essenciais para estratégias de vendas outbound. Empresas priorizam a terceirização para gerar pipeline de forma mais rápida e consistente, devido ao alto custo e tempo de produtividade de SDRs internos.

appointment settingB2B salesoutsourcingsales strategy
30
ARTICLEDEV.to AI·1d atrás

Building Evenfield: An AI Homeschool Platform That Never Forgets

Evenfield é uma plataforma de ensino doméstico com IA que resolve a limitação da falta de memória em tutores de IA existentes. Construída sobre Claude da Anthropic e uma camada de memória H.U.N.I.E., ela mantém um registro persistente do progresso e padrões de aprendizagem do aluno para oferecer uma experiência verdadeiramente personalizada.

EducationPersonalized LearningAI tutor
54
ARTICLE↑ trendingReddit r/LocalLLaMA·1d atrás

I'm done with using local LLMs for coding

O autor expressa frustração após semanas usando LLMs locais como Qwen 27B e Gemma 4 31B para tarefas de codificação e Docker, comparando-os com o Claude Code. Ele conclui que a perda de produtividade devido à má tomada de decisão e chamadas de ferramentas dos modelos locais não compensa os benefícios.

AI modelslocal LLMsdeveloper experiencecoding
65
CASEDEV.to AI·1d atrás

I Built a 24/7 AI Agent System on a $6/Month VPS — Here's the Stack

O artigo descreve a criação de um sistema autônomo de IA 24/7 em um VPS de $6/mês, utilizando OpenClaw, DeepSeek V4 Pro e Playwright para automação. O sistema gerencia publicações em redes sociais, artigos no Dev.to e uma loja Gumroad, destacando sua eficiência e custo-benefício em relação a outras LLMs.

LLMsDevOpsCost Optimizationautomation
54
NEWSThe Verge AI·1d atrás

Jury selection in Musk v. Altman: ‘People don’t like him’

O processo judicial entre Elon Musk e Sam Altman, relacionado à OpenAI, começou com a seleção do júri, que se mostrou desafiadora devido às fortes opiniões negativas de muitos potenciais jurados sobre Elon Musk, conforme revelado em seus questionários.

OpenAIlegal-dispute
36
ARTICLEDEV.to AI·1d atrás

Still Using UPI Manually? Here’s What It’s Costing You

Este artigo discute os custos ocultos para pequenas empresas que utilizam a coleta manual de pagamentos via UPI, resultando em atrito com o cliente e possíveis desistências. Ele detalha como o processo de múltiplas etapas aumenta a chance de erros e vendas perdidas.

paymentsEfficiencysmall businessautomation
29
CASEDEV.to AI·1d atrás

I Built a 24/7 AI Agent System on a $6/Month VPS — Here's the Stack

Este conteúdo descreve a configuração de um sistema de agente de IA autônomo 24 horas por dia, 7 dias por semana, executado em um VPS de $6/mês, utilizando OpenClaw, DeepSeek V4 Pro, Playwright e Docker. O sistema automatiza a publicação de conteúdo em mídias sociais, artigos, gerenciamento de loja e promoções, demonstrando economia de custos significativa em comparação com outros modelos.

LLMscloud-computingCost Optimizationautomation
53
ARTICLEDEV.to AI·1d atrás

I Tested 70 AI Agent Services. The Average Quality Score Was 34 Out of 100.

O autor testou 70 serviços de agentes de IA no protocolo x402, revelando uma pontuação média de qualidade de apenas 34 de 100, apesar do ecossistema estar em expansão. A análise aponta que a maioria desses serviços, que permitem pagamentos com stablecoins para chamadas de API, são de baixa qualidade.

Ecosystem AnalysisQuality AssessmentDecentralized AIProtocol x402
53
ARTICLEDEV.to AI·1d atrás

Methodology Magic: Using AI to Strengthen Your Project Plans

Este artigo apresenta uma metodologia de adaptação impulsionada por IA para redatores de subsídios de pequenas ONGs fortalecerem planos de projeto. Em vez de criar do zero, a IA ajuda a remixar e refinar propostas anteriores de acordo com novas prioridades de financiadores, economizando tempo e garantindo credibilidade.

AI applicationscontent adaptationnonprofitproductivity
53
ARTICLEDEV.to AI·1d atrás

Big Tech firms are accelerating AI investments and integration, while regulators and companies focus on safety and responsible adoption.

O cenário da IA está em rápido crescimento impulsionado por grandes investimentos de tecnologia, com forte foco na integração da IA no desenvolvimento de software e na priorização da segurança e das considerações éticas. Esta análise explora a dinâmica do mercado, as estratégias globais e as implicações para os fluxos de trabalho de engenharia.

AI regulationAI trendsAI ethicsAI investment
53
←1…34567…317→
Sobre·[email protected]
⌘K
NVDA-1.84%GOOGL+0.05%MSFT-1.12%META-0.33%AMZN+1.29%AMD+4.30%ORCL-1.28%PLTR
-2.27%