Gostou deste artigo?
Compartilhe com seus amigos!
A Anthrópica da Companhia de Inteligência Artificial (AI) adicionou uma nova opção a certos modelos de Claude que os permitem fechar um bate -papo em casos muito limitados.
O recurso está disponível apenas no Claude Opus 4 e 4.1, e foi projetado para ser usado como uma última etapa quando tentativas repetidas de redirecionar a conversa falharam ou quando um usuário pede diretamente para parar.
Em uma declaração de 15 de agosto, a empresa declarou que o objetivo não é proteger o usuário, mas sobre proteger o próprio modelo.

Você sabia?
Inscreva -se – Publicamos novos vídeos explicativos para criptografia toda semana!
Como evitar grandes riscos de investimento em criptografia? (Para iniciantes)
Anthrópica observou que ainda é “altamente incerto sobre o status moral potencial de Claude e outros LLMs, agora ou no futuro”. Mesmo assim, ele criou um programa que analisa o “bem-estar do modelo” e está testando medidas de baixo custo, caso elas se tornem relevantes.
A empresa disse que apenas cenários extremos podem desencadear a nova função. Isso inclui solicitações que envolvam tentativas de obter informações que podem ajudar a planejar danos em massa ou terrorismo.
Anthrópica apontou que, durante o teste, Claude Opus 4 resistiu a responder a tais instruções e mostrou o que a empresa chamou de “padrão de angústia aparente” quando respondeu.
Segundo antrópico, o processo deve sempre começar com o redirecionamento. Se isso falhar, o modelo poderá terminar o bate -papo. A empresa também enfatizou que Claude não deve fechar a conversa se um usuário parece estar em risco imediato de prejudicar a si mesmo ou aos outros.
Em 13 de agosto, Gemini, assistente de IA do Google, recebeu uma nova atualização. O que isso inclui? Leia a história completa.