fbpx

Por ESTE motivo você nunca pode revelar seu nome a uma IA

Por ESTE motivo você nunca pode revelar seu nome a uma IA

Sem dúvidas, a infinitude da inteligência artificial (IA) está no centro das discussões sobre o futuro da tecnologia.

Os debates sobre o tema referem-se à capacidade teórica e potencial de expandir e aprimorar os sistemas de IA de forma ilimitada.

Na prática, esse conceito envolve o desenvolvimento contínuo de algoritmos mais avançados, a ampliação das capacidades de processamento de dados e o refinamento das técnicas de aprendizado de máquina.

Com a infinitude da IA, surge a promessa de um horizonte sem limites para melhorias, inovações e aplicações em diversos campos.

Desde a automação até a medicina, finanças e entretenimento, a IA está transformando a maneira como interagimos com o mundo ao nosso redor. Mas nem tudo são flores!

Questionamentos sobre a confidencialidade

Expor dados sensíveis aos chatbots pode oferecer riscos – Imagem: Reprodução

O compartilhamento de informações sensíveis, como dados bancários, com chatbots de IA, por exemplo, o ChatGPT da OpenAI e o Gemini do Google (antigo Bard), é desencorajado por especialistas devido à falta de garantia de privacidade.

Stan Kaminsky, perito em segurança da Kaspersky, adverte que até informações pessoais básicas, como nome, endereço e telefone, não devem ser compartilhadas com esses softwares.

O alerta de Kaminsky destaca a preocupação crescente em torno da privacidade dos usuários que interagem com chatbots de IA.

Isso porque as conversas com o ChatGPT e outros sistemas semelhantes são rotineiramente armazenadas para possíveis correções técnicas e treinamento, o que levanta questões sobre a segurança de tais dados.

Recentemente, o site Ars Technica trouxe à tona preocupações adicionais ao relatar a exposição de conversas privadas envolvendo especificamente o ChatGPT.

Embora a OpenAI, responsável por essa tecnologia, tenha afirmado que não houve vazamento de dados, a situação ressalta os riscos associados ao compartilhamento de conteúdos sensíveis com chatbots de IA.

Para reduzir tais perigos, especialistas recomendam fortemente que as pessoas evitem informar dados pessoais e documentos confidenciais aos chatbots.

Em vez disso, é aconselhável substituir dados sensíveis por asteriscos, traços e outros símbolos, ou passar apenas conteúdo genérico durante as interações com esses sistemas automatizados.

Ao adotar práticas de segurança digital como essa, você consegue diminuir significativamente a ameaça de golpes, vazamentos de dados e outras formas de exploração online.

Veja a matéria original no R7

Veja mais em

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.