O que é um LLM de código aberto por EPFL e ETH Zurique
O ETH Zurich e o LLM de peso aberto da EPFL oferece uma alternativa transparente à IA de caixa preta construída em computação verde e definida para liberação pública.
Os grandes modelos de idiomas (LLMs), que são redes neurais que prevêem a próxima palavra em uma frase, estão alimentando a IA generativa de hoje. A maioria permanece fechada, utilizável pelo público, mas inacessível para inspeção ou melhoria. Essa falta de transparência entra em conflito com os princípios de abertura e inovação sem permissão da Web3.
Então, todos perceberam quando o ETH Zurich e o Swiss Federal Institute of Technology em Lausanne (EPFL) anunciaram um modelo totalmente público, treinado no supercomputador de “Alpes” de Neutral de Carboneira da Suíça e previsto para liberação no Apache 2.0 no final deste ano.
Geralmente, é chamado de “LLM aberto da Suíça”, “um modelo de idioma construído para o bem público” ou “o modelo de idioma grande suíço”, mas nenhuma marca específica ou nome do projeto foi compartilhado em declarações públicas até agora.
O LLM aberto é um modelo cujos parâmetros podem ser baixados, auditados e finos localmente, diferentemente dos sistemas API – apenas “Black -Box”.
Anatomia do LLM público suíço
Escala: duas configurações, 8 bilhões e 70 bilhões de parâmetros, treinados em 15 trilhões de tokens. Para pesquisadores e startups.
O que faz se destacar o LLM da Suíça
A Switzerland LLM combina abertura, escala multilíngue e infraestrutura verde para oferecer um LLM radicalmente transparente.
Arquitetura aberta por design: diferentemente do GPT-4, que oferece apenas acesso à API, este Swiss LLM fornecerá todos os seus parâmetros de rede neural (pesos), código de treinamento e conjunto de dados em referências sob uma licença Apache 2.0, capacitando os desenvolvedores de 8 bilhões de dólares e a audição e implantam sem restrições. A iniciativa abrange o uso leve a em larga escala com abertura consistente, algo que o GPT-4, estimado em 1,7 trilhão de parâmetros, não oferece publicamente. Alcance multilíngue mutualizado: treinado em 15 trilhões de tokens em mais de 1,500 idiomas (~ 60% inglês, 40% não-inglês), desafia o gpto-4. Construído no cluster de Alpes de Carbono Neutro do Supercompunting Center, da Swiss National Supercomputing Center, 10.000 Superchips de Grace-Hopper, que oferecem mais de 40 exaflops no modo FP8, combina a escala com a sustentabilidade ausente no treinamento em nuvem privada. sublinhando um novo padrão ético.
O que o modelo de IA totalmente aberto desbloqueia para Web3
A transparência completa do modelo permite a inferência de Onchain, os fluxos de dados tokenizados e as integrações definidas pelo Oracle-Safe, sem caixas pretas.
Inferência de Onchain: a execução de versões aparadas do modelo suíço dentro dos seqüenciadores de rollup pode permitir a resumo de contratos inteligentes em tempo real e provas de fraude. ou bots de liquidação.
Esses objetivos de design são mapeados de maneira limpa em frases de SEO de alta intenção, incluindo IA descentralizada, integração de IA da blockchain e inferência de Onchain, aumentando a descoberta do artigo sem enchimento de palavras -chave.
Você sabia? Os LLMs de peso aberto podem ser executados dentro de rollups, ajudando contratos inteligentes a resumir os documentos legais ou sinalizar transações suspeitas em tempo real.
Ai Market Tailwinds você não pode ignorar
O mercado de IA é projetado para superar US $ 500 bilhões, com mais de 80% controlados por provedores fechados. O Blockchain -AI deve crescer de US $ 550 milhões em 2024 para US $ 4,33 bilhões em 2034 (22,9% de CAGR) .68% das empresas já piloto de agentes Ai e 59% de CIT Modelo
Regulamento: a Lei da UE AI encontra o modelo soberano
O Public LLMS, como o próximo modelo da Suíça, foi projetado para cumprir a Lei da UE AI, oferecendo uma clara vantagem no alinhamento de transparência e regulamentação.
Em 18 de julho de 2025, a Comissão Europeia emitiu orientações para modelos de fundação de riscos sistêmicos. Os requisitos incluem testes adversários, resumos detalhados de treinamento -datos e auditorias de segurança cibernética, todos efetivos em 2 de agosto de 2025. Projetos de fonte aberta que publicam seus pesos e conjuntos de dados podem satisfazer muitos desses mandatos de transparência fora da caixa, dando aos modelos públicos uma vantagem de conformidade.
Swiss LLM vs GPT – 4
O GPT -4 ainda mantém uma vantagem no desempenho bruto devido à escala e refinamentos proprietários. Mas o modelo suíço fecha a lacuna, especialmente para tarefas multilíngues e pesquisas não comerciais, ao mesmo tempo em que fornecem auditabilidade que os modelos proprietários não podem fundamentalmente.
Você sabia? A partir de 2 de agosto de 2025, os modelos de fundação na UE devem publicar resumos de dados, logs de auditoria e resultados de testes adversários, requisitos que o próximo Swiss-Somebce LLM já atende.
Alibaba Qwen vs Switzerland’s Public LLM: uma comparação de modelos cruzados
Enquanto Qwen enfatiza o desempenho da diversidade de modelos e da implantação, o Public LLM da Suíça se concentra na transparência de pilha completa e na profundidade multilíngue.
A Public LLM da Suíça não é o único candidato sério na corrida de peso aberto LLM. A série QWEN da Alibaba, Qwen3 e Qwen3-Coder, emergiu rapidamente como uma alternativa de alto desempenho e de código aberto.
Enquanto o público LLM da Suíça brilha com transparência de pilha completa, liberando seus pesos, código de treinamento e metodologia do conjunto de dados na íntegra, a abertura de Qwen se concentra em pesos e código, com menos clareza em torno de fontes de dados de treinamento.
Quando se trata de diversidade de modelos, Qwen oferece uma faixa expansiva, incluindo modelos densos e uma arquitetura sofisticada da mistura de especialistas (MOE), com até 235 bilhões de parâmetros (22 bilhões de ativos), juntamente com modos de raciocínio híbrido para mais processamento de contexto. Por outro lado, a Public LLM da Suíça mantém um foco mais acadêmico, oferecendo dois tamanhos limpos e orientados a pesquisas: 8 bilhões e 70 bilhões.
No desempenho, o código QWEN3 do Alibaba foi comparado de forma independente por fontes, incluindo Reuters, Elass CIO e Wikipedia, para rivalizar com o GPT-4 em tarefas de codificação e matemática. Os dados de desempenho da Public LLM da Suíça ainda está pendente de lançamento público.
Sobre a capacidade multilíngue, o Public LLM da Suíça assume a liderança com apoio para mais de 1.500 idiomas, enquanto a cobertura de Qwen inclui 119, ainda substancial, mas mais seletiva. Finalmente, a pegada de infraestrutura reflete filosofias divergentes: o Public LLM da Suíça é executado no supercomputador de Alpes de Carbono da CSCS, uma instalação verde e soberana, enquanto os modelos de Qwen são treinados e servidos por meio da nuvem de alibaba, priorizando a velocidade e a escala sobre a transparência energética.
Abaixo está uma visão lado a lado de como as duas iniciativas LLM de código aberto se comparam às principais dimensões:
Você sabia? O QWEN3 -Coder usa uma configuração de MOE com 235b parâmetros totais, mas apenas 22 bilhões estão ativos ao mesmo tempo, otimizando a velocidade sem custo de computação total.
Por que os construtores devem se importar
Controle total: possua a pilha de modelos, pesos, código e proveniência de dados. Nenhuma restrição de bloqueio ou API do fornecedor. A quantização de 4 bits pode reduzir os custos de inferência em 60%a 80%. Compabilidade pelo projeto: a documentação transparente alinha perfeitamente com os requisitos da Lei AI da UE, menos obstáculos legais e tempo para implantação.
Armadilhas para navegar enquanto trabalha com LLMs de código aberto
Os LLMs de código aberto oferecem transparência, mas enfrentam obstáculos como instabilidade, altas demandas de computação e incerteza legal.
Os principais desafios enfrentados pelos LLMs de código aberto incluem:
Desempenho e lacunas de escala: Apesar das arquiteturas consideráveis, o consenso da comunidade questiona se os modelos de fonte aberta podem corresponder aos recursos de raciocínio, fluência e integração de ferramentas de modelos fechados como GPT-4 ou Claude4.Plemmentation e componentes de componentes: Modios de fios de fios de fios, com fios de fios, com fios de fios, com fios de fios, com fios de letra, com fios de fios, com fios de letra, com fios de fios, com fios de fios, com fios de fleração, com fios de fios de fios, com fios de fios de fios, com fios de fleração, com fios de fios de fios, com fios de fios de fios, com fios de fútil e componentes. Configurações complexas de ambiente ou erros de configuração ao implantar LLMs.Resource Intensidade: treinamento de modelos, hospedagem e demanda de inferência Compute e memória substanciais (por exemplo, multi-GPU, 64 GB de RAM), tornando-os menos acessíveis a equipes menores. e riscos de confiança: os ecossistemas abertos podem ser suscetíveis a ameaças da cadeia de suprimentos (por exemplo, digitação por meio de nomes de pacotes alucinados). A governança relaxada pode levar a vulnerabilidades, como backdoors, permissões inadequadas ou vazamento de dados. Ambiguidades legais e IP: o uso de dados de rabugidade na Web ou licenças mistas pode expor usuários a conflitos de propriedade intelectual quando os modelos de uso de uso possível. Por exemplo, os desenvolvedores relatam referências de pacote alucinadas em 20% dos trechos de código.