Apesar das inúmeras funcionalidades da inteligência artificial, muita gente tem receio de usar esse tipo de tecnologia por medo de ter dados pessoais e de clientes disponíveis para terceiros na Internet. Mas, segundo a consultora de inteligência artificial do Google Cloud Brisa Araújo, o temor não faz sentido.
Durante sua participação no evento ‘Google Cloud Generative AI Live + Labs’, nesta sexta-feira (11/8), ela assegurou que a empresa preserva os dados de seus clientes e que a segurança é um dos pilares para a construção das ferramentas.
As políticas da empresa para a inteligência artificial generativa incluem governança de dados e privacidade, suporte para segurança e conformidade, confiabilidade e sustentabilidade, segurança e responsabilidade. "Você é o proprietário e controla seus dados, não o Google", apontou.
A Google defende que faz um "uso responsável de dados para inteligência artificial e machine learning" estabelecendo, como compromissos com seus clientes, a não utilização de dados desses usuários para treinar e melhorar os modelos da empresa. "Os dados dos clientes são processados exclusivamente de acordo com suas instruções", destacou. Ela ainda garantiu que os usuários podem ter certeza que seus dados estão protegidos de outros clientes, usuários e funcionários não autorizados do Google.
Como garantir a segurança
A especialista ainda descreveu o que chamou de controles de segurança da empresa. Um deles é o uso de nuvem privada virtual (VPC), que protege contra ações acidentais ou direcionadas de entidades externas ou internas, minimizando riscos indevidos de exfiltração de dados.
Outro recurso são as chaves de criptografia gerenciadas pelo cliente e o acesso transparente a logs de registro em tempo quase real, com informações sobre quando os administradores do Google Cloud acessam seu conteúdo e a justificativa de acesso.
Inteligência artificial responsável
Em outro ponto, Brisa apontou quais são os princípios do Google em relação à construção da inteligência artificial. A lista inclui beneficiar a sociedade, evitar tendências injustas, ser responsável com as pessoas e manter os altos padrões de excelência cientifica.
Existe também um compromisso de não contribuir para causar prejuízos gerais ou danos fisicos, além de não violar normas internacionais, em especial, os direitos humanos. Para isso, o processo de revisão da IA busca identificar, avaliar e mitigar possível impacto negativo que a tecnologia pode trazer.
Fonte: em.com.br
Foto: Rádio Espacial FM / AdobeStock
28/10/2024 - Empresa chinesa começa a vender bilhetes para voo espacial suborbital por R$ 1,2 milhão
15/10/2024 - 8 em cada 10 adultos defendem proibição de celulares em escolas
08/10/2024 - Multa de R$ 28,6 milhões do X é transferida para conta na Caixa
25/06/2024 - Rede social deverá indenizar influenciadora digital de Minas que teve perfil invadido
23/04/2024 - Sete em cada dez bancos adotam biometria facial
04/04/2024 - YouTube vai obrigar usuários a identificar vídeos feitos com IA
02/10/2023 - Apagar mensagem no WhatsApp não garante exclusão do texto
08/09/2023 - Como inteligência artificial pode ajudar na busca pela imortalidade