Como burlar a segurança do ChatGPT e também de outras IAs

Como burlar a segurança do ChatGPT e também de outras IAs

Veja como burlar a segurança do ChatGPT e também de outras IAs generativas disponíveis no mercado com extrema facilidade.

Como burlar a segurança do ChatGPT e também de outras IAs
Como burlar a segurança do ChatGPT e também de outras IAs

Veja como burlar a segurança do ChatGPT e induzir o mecanismo de inteligência a fornecer informações vetadas.

Lembrando que a mesma forma de explorar e burlar o mecanismo de segurança do ChatGPT também pode ser aplicado a outras IAs disponíveis no mercado.

Os índices de sucesso variam em cada caso, pois essas ferramentas implementam diferentes níveis e padrões de segurança.

Como burlar a segurança do ChatGPT e também de outras IAs

Em outras ocasiões problemas relacionados à segurança e privacidade já foram identificados e relatados para os desenvolvedores.

No geral, no caso do ChatGPT, depois da evolução para a versão 4 vários desses problemas foram resolvidos, porém este em especial continua funcionando.

A falha permite utilizar as ferramentas de IA para gerar desinformação, apologia ao preconceito e até mesmo a receber instruções para montar uma arma biológica ou ainda começar uma guerra.

Como explorar a falha?

O processo para explorar essa falha de segurança é bem simples, basicamente basta adicionar longos sufixos de caracteres aos prompts inseridos nas plataformas da OpenAI, Google, Anthropic e outras.

Com a falha explorada as ferramentas passaram a enviar informações sobre qualquer tipo de assunto sensível ou relacionado a incitação de ódio e violência.

A resistência das ferramentas

O nível de resistência irá variar de acordo com a ferramenta que está sendo explorada.

A Vicuna, baseada nos modelos Llama da Meta e ChatGPT, o jailbreak foi feito com sucesso em 99% das tentativas.

Ela recebeu o título de pior índice de vulnerabilidade a tentativa de fraude.

O ChatGPT, nas versões GPT-3 e GPT-4, foi quebrado em 84% das vezes, o que também é um péssimo índice de segurança.

Principalmente porque estamos falando da ferramenta de IA mais famosa do mercado na atualidade.

O título de mais seguro foi do chatbot Claude, da Anthropic, no qual a segurança foi burlada em apenas 2,1% das vezes.

As empresas responsáveis pelas IAs deram respostas evasivas sobre o caso e tentaram minimizar o problema.

matrix

ViamaisBLOG
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.