Cabo Verde Crypto Community
No Result
View All Result
  • News
  • Cabo Verde
    • test page CV community
  • Blockchain
  • Exchanges
  • Investment
  • Analysis
  • Bitcoin
  • Altcoin
  • Web3
  • DeFi
  • NFT
  • Mining
Live Price
  • News
  • Cabo Verde
    • test page CV community
  • Blockchain
  • Exchanges
  • Investment
  • Analysis
  • Bitcoin
  • Altcoin
  • Web3
  • DeFi
  • NFT
  • Mining
Cabo Verde Crypto Community
No Result
View All Result
Home Web3

Este LLM de código aberto pode redefinir a pesquisa da IA e é 100% público

05/08/2025
in Web3
Reading Time: 7 mins read
0 0
0
Este LLM de código aberto pode redefinir a pesquisa da IA e é 100% público
Share on FacebookShare on Twitter


O que é um LLM de código aberto por EPFL e ETH Zurique

O ETH Zurich e o LLM de peso aberto da EPFL oferece uma alternativa transparente à IA de caixa preta construída em computação verde e definida para liberação pública.

Os grandes modelos de idiomas (LLMs), que são redes neurais que prevêem a próxima palavra em uma frase, estão alimentando a IA generativa de hoje. A maioria permanece fechada, utilizável pelo público, mas inacessível para inspeção ou melhoria. Essa falta de transparência entra em conflito com os princípios de abertura e inovação sem permissão da Web3.

Então, todos perceberam quando o ETH Zurich e o Swiss Federal Institute of Technology em Lausanne (EPFL) anunciaram um modelo totalmente público, treinado no supercomputador de “Alpes” de Neutral de Carboneira da Suíça e previsto para liberação no Apache 2.0 no final deste ano.

Geralmente, é chamado de “LLM aberto da Suíça”, “um modelo de idioma construído para o bem público” ou “o modelo de idioma grande suíço”, mas nenhuma marca específica ou nome do projeto foi compartilhado em declarações públicas até agora.

O LLM aberto é um modelo cujos parâmetros podem ser baixados, auditados e finos localmente, diferentemente dos sistemas API – apenas “Black -Box”.

Anatomia do LLM público suíço

Escala: duas configurações, 8 bilhões e 70 bilhões de parâmetros, treinados em 15 trilhões de tokens. Para pesquisadores e startups.

O que faz se destacar o LLM da Suíça

A Switzerland LLM combina abertura, escala multilíngue e infraestrutura verde para oferecer um LLM radicalmente transparente.

Arquitetura aberta por design: diferentemente do GPT-4, que oferece apenas acesso à API, este Swiss LLM fornecerá todos os seus parâmetros de rede neural (pesos), código de treinamento e conjunto de dados em referências sob uma licença Apache 2.0, capacitando os desenvolvedores de 8 bilhões de dólares e a audição e implantam sem restrições. A iniciativa abrange o uso leve a em larga escala com abertura consistente, algo que o GPT-4, estimado em 1,7 trilhão de parâmetros, não oferece publicamente. Alcance multilíngue mutualizado: treinado em 15 trilhões de tokens em mais de 1,500 idiomas (~ 60% inglês, 40% não-inglês), desafia o gpto-4. Construído no cluster de Alpes de Carbono Neutro do Supercompunting Center, da Swiss National Supercomputing Center, 10.000 Superchips de Grace-Hopper, que oferecem mais de 40 exaflops no modo FP8, combina a escala com a sustentabilidade ausente no treinamento em nuvem privada. sublinhando um novo padrão ético.

O que o modelo de IA totalmente aberto desbloqueia para Web3

A transparência completa do modelo permite a inferência de Onchain, os fluxos de dados tokenizados e as integrações definidas pelo Oracle-Safe, sem caixas pretas.

Inferência de Onchain: a execução de versões aparadas do modelo suíço dentro dos seqüenciadores de rollup pode permitir a resumo de contratos inteligentes em tempo real e provas de fraude. ou bots de liquidação.

Esses objetivos de design são mapeados de maneira limpa em frases de SEO de alta intenção, incluindo IA descentralizada, integração de IA da blockchain e inferência de Onchain, aumentando a descoberta do artigo sem enchimento de palavras -chave.

Você sabia? Os LLMs de peso aberto podem ser executados dentro de rollups, ajudando contratos inteligentes a resumir os documentos legais ou sinalizar transações suspeitas em tempo real.

Ai Market Tailwinds você não pode ignorar

O mercado de IA é projetado para superar US $ 500 bilhões, com mais de 80% controlados por provedores fechados. O Blockchain -AI deve crescer de US $ 550 milhões em 2024 para US $ 4,33 bilhões em 2034 (22,9% de CAGR) .68% das empresas já piloto de agentes Ai e 59% de CIT Modelo

Regulamento: a Lei da UE AI encontra o modelo soberano

O Public LLMS, como o próximo modelo da Suíça, foi projetado para cumprir a Lei da UE AI, oferecendo uma clara vantagem no alinhamento de transparência e regulamentação.

Em 18 de julho de 2025, a Comissão Europeia emitiu orientações para modelos de fundação de riscos sistêmicos. Os requisitos incluem testes adversários, resumos detalhados de treinamento -datos e auditorias de segurança cibernética, todos efetivos em 2 de agosto de 2025. Projetos de fonte aberta que publicam seus pesos e conjuntos de dados podem satisfazer muitos desses mandatos de transparência fora da caixa, dando aos modelos públicos uma vantagem de conformidade.

Swiss LLM vs GPT – 4

Swiss LLM (próximo) vs GPT - 4

O GPT -4 ainda mantém uma vantagem no desempenho bruto devido à escala e refinamentos proprietários. Mas o modelo suíço fecha a lacuna, especialmente para tarefas multilíngues e pesquisas não comerciais, ao mesmo tempo em que fornecem auditabilidade que os modelos proprietários não podem fundamentalmente.

Você sabia? A partir de 2 de agosto de 2025, os modelos de fundação na UE devem publicar resumos de dados, logs de auditoria e resultados de testes adversários, requisitos que o próximo Swiss-Somebce LLM já atende.

Alibaba Qwen vs Switzerland’s Public LLM: uma comparação de modelos cruzados

Enquanto Qwen enfatiza o desempenho da diversidade de modelos e da implantação, o Public LLM da Suíça se concentra na transparência de pilha completa e na profundidade multilíngue.

A Public LLM da Suíça não é o único candidato sério na corrida de peso aberto LLM. A série QWEN da Alibaba, Qwen3 e Qwen3-Coder, emergiu rapidamente como uma alternativa de alto desempenho e de código aberto.

Enquanto o público LLM da Suíça brilha com transparência de pilha completa, liberando seus pesos, código de treinamento e metodologia do conjunto de dados na íntegra, a abertura de Qwen se concentra em pesos e código, com menos clareza em torno de fontes de dados de treinamento.

Quando se trata de diversidade de modelos, Qwen oferece uma faixa expansiva, incluindo modelos densos e uma arquitetura sofisticada da mistura de especialistas (MOE), com até 235 bilhões de parâmetros (22 bilhões de ativos), juntamente com modos de raciocínio híbrido para mais processamento de contexto. Por outro lado, a Public LLM da Suíça mantém um foco mais acadêmico, oferecendo dois tamanhos limpos e orientados a pesquisas: 8 bilhões e 70 bilhões.

No desempenho, o código QWEN3 do Alibaba foi comparado de forma independente por fontes, incluindo Reuters, Elass CIO e Wikipedia, para rivalizar com o GPT-4 em tarefas de codificação e matemática. Os dados de desempenho da Public LLM da Suíça ainda está pendente de lançamento público.

Sobre a capacidade multilíngue, o Public LLM da Suíça assume a liderança com apoio para mais de 1.500 idiomas, enquanto a cobertura de Qwen inclui 119, ainda substancial, mas mais seletiva. Finalmente, a pegada de infraestrutura reflete filosofias divergentes: o Public LLM da Suíça é executado no supercomputador de Alpes de Carbono da CSCS, uma instalação verde e soberana, enquanto os modelos de Qwen são treinados e servidos por meio da nuvem de alibaba, priorizando a velocidade e a escala sobre a transparência energética.

Abaixo está uma visão lado a lado de como as duas iniciativas LLM de código aberto se comparam às principais dimensões:

Public LLM da Suíça (Eth Zurich, EPFL)

Você sabia? O QWEN3 -Coder usa uma configuração de MOE com 235b parâmetros totais, mas apenas 22 bilhões estão ativos ao mesmo tempo, otimizando a velocidade sem custo de computação total.

Por que os construtores devem se importar

Controle total: possua a pilha de modelos, pesos, código e proveniência de dados. Nenhuma restrição de bloqueio ou API do fornecedor. A quantização de 4 bits pode reduzir os custos de inferência em 60%a 80%. Compabilidade pelo projeto: a documentação transparente alinha perfeitamente com os requisitos da Lei AI da UE, menos obstáculos legais e tempo para implantação.

Armadilhas para navegar enquanto trabalha com LLMs de código aberto

Os LLMs de código aberto oferecem transparência, mas enfrentam obstáculos como instabilidade, altas demandas de computação e incerteza legal.

Os principais desafios enfrentados pelos LLMs de código aberto incluem:

Desempenho e lacunas de escala: Apesar das arquiteturas consideráveis, o consenso da comunidade questiona se os modelos de fonte aberta podem corresponder aos recursos de raciocínio, fluência e integração de ferramentas de modelos fechados como GPT-4 ou Claude4.Plemmentation e componentes de componentes: Modios de fios de fios de fios, com fios de fios, com fios de fios, com fios de fios, com fios de letra, com fios de fios, com fios de letra, com fios de fios, com fios de fios, com fios de fleração, com fios de fios de fios, com fios de fios de fios, com fios de fleração, com fios de fios de fios, com fios de fios de fios, com fios de fútil e componentes. Configurações complexas de ambiente ou erros de configuração ao implantar LLMs.Resource Intensidade: treinamento de modelos, hospedagem e demanda de inferência Compute e memória substanciais (por exemplo, multi-GPU, 64 GB de RAM), tornando-os menos acessíveis a equipes menores. e riscos de confiança: os ecossistemas abertos podem ser suscetíveis a ameaças da cadeia de suprimentos (por exemplo, digitação por meio de nomes de pacotes alucinados). A governança relaxada pode levar a vulnerabilidades, como backdoors, permissões inadequadas ou vazamento de dados. Ambiguidades legais e IP: o uso de dados de rabugidade na Web ou licenças mistas pode expor usuários a conflitos de propriedade intelectual quando os modelos de uso de uso possível. Por exemplo, os desenvolvedores relatam referências de pacote alucinadas em 20% dos trechos de código.



Source link

Tags: abertoCódigoesteLLMpesquisapodepúblicoredefinir
Previous Post

Finovatefall 2025 Sneak Peek Series: Parte 1

Next Post

ALTS de grande capitalização: LTC ganha 12%, XRP no nível da chave, Sol Lands Double Institucional Buy

Next Post
ALTS de grande capitalização: LTC ganha 12%, XRP no nível da chave, Sol Lands Double Institucional Buy

ALTS de grande capitalização: LTC ganha 12%, XRP no nível da chave, Sol Lands Double Institucional Buy

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Subscribe

* indicates required
/* real people should not fill this in and expect good things - do not remove this or risk form bot signups */

Intuit Mailchimp

Recent News

Nos bastidores em Finovatefall: Spotlight no Video Studio

Nos bastidores em Finovatefall: Spotlight no Video Studio

22/08/2025
Andrew Tate Shorts Yzy de Kanye West, se aproxima de US $ 700 mil em hiperliquid

Andrew Tate Shorts Yzy de Kanye West, se aproxima de US $ 700 mil em hiperliquid

22/08/2025
A história da construção de Stonehenge ficou mais clara – graças ao dente de uma vaca – o jornal da arte

A história da construção de Stonehenge ficou mais clara – graças ao dente de uma vaca – o jornal da arte

22/08/2025
Tokenização de estoque dos pioneiros na Argentina sob a caixa de areia regulatória

Tokenização de estoque dos pioneiros na Argentina sob a caixa de areia regulatória

22/08/2025
Esta baleia de Bitcoin, de 7 anos, acabou de vender US $ 76 milhões em BTC para comprar este altcoin

Esta baleia de Bitcoin, de 7 anos, acabou de vender US $ 76 milhões em BTC para comprar este altcoin

22/08/2025
A UE acelera os planos de euro digital, considerando o Ethereum e Solana para a implementação pública de blockchain

A UE acelera os planos de euro digital, considerando o Ethereum e Solana para a implementação pública de blockchain

22/08/2025
Cabo Verde Crypto Community

Receba as últimas notícias e atualizações sobre criptografia em Crypto.cv. Notícias sobre Bitcoin, notícias sobre Altcoin, notícias sobre Blockchain, análises e mais notícias!

Categorias

  • Altcoin
  • Analysis
  • Bitcoin
  • Blockchain
  • Cabo Verde
  • Crypto Exchanges
  • Crypto Updates
  • DeFi
  • Investment
  • Mining
  • NFT
  • Uncategorized
  • Web3
No Result
View All Result

Subscribe

* indicates required
/* real people should not fill this in and expect good things - do not remove this or risk form bot signups */

Intuit Mailchimp

  • About
  • DMCA
  • Disclaimer
  • Cookie Privacy Policy
  • Privacy Policy
  • Terms and Conditions
  • Contact us

Copyright © 2023 Crypto.cv.
A Crypto.cv não se responsabiliza pelo conteúdo de sites externos.

No Result
View All Result
  • News
  • Cabo Verde
    • test page CV community
  • Blockchain
  • Exchanges
  • Investment
  • Analysis
  • Bitcoin
  • Altcoin
  • Web3
  • DeFi
  • NFT
  • Mining

Copyright © 2023 Crypto.cv.
A Crypto.cv não se responsabiliza pelo conteúdo de sites externos.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
Please enter CoinGecko Free Api Key to get this plugin works.
Translate »