Apesar das inúmeras funcionalidades da inteligência artificial, muita gente tem receio de usar esse tipo de tecnologia por medo de ter dados pessoais e de clientes disponíveis para terceiros na Internet. Mas, segundo a consultora de inteligência artificial do Google Cloud Brisa Araújo, o temor não faz sentido.
Durante sua participação no evento ‘Google Cloud Generative AI Live + Labs’, nesta sexta-feira (11/8), ela assegurou que a empresa preserva os dados de seus clientes e que a segurança é um dos pilares para a construção das ferramentas.
As políticas da empresa para a inteligência artificial generativa incluem governança de dados e privacidade, suporte para segurança e conformidade, confiabilidade e sustentabilidade, segurança e responsabilidade. "Você é o proprietário e controla seus dados, não o Google", apontou.
A Google defende que faz um "uso responsável de dados para inteligência artificial e machine learning" estabelecendo, como compromissos com seus clientes, a não utilização de dados desses usuários para treinar e melhorar os modelos da empresa. "Os dados dos clientes são processados exclusivamente de acordo com suas instruções", destacou. Ela ainda garantiu que os usuários podem ter certeza que seus dados estão protegidos de outros clientes, usuários e funcionários não autorizados do Google.
Como garantir a segurança
A especialista ainda descreveu o que chamou de controles de segurança da empresa. Um deles é o uso de nuvem privada virtual (VPC), que protege contra ações acidentais ou direcionadas de entidades externas ou internas, minimizando riscos indevidos de exfiltração de dados.
Outro recurso são as chaves de criptografia gerenciadas pelo cliente e o acesso transparente a logs de registro em tempo quase real, com informações sobre quando os administradores do Google Cloud acessam seu conteúdo e a justificativa de acesso.
Inteligência artificial responsável
Em outro ponto, Brisa apontou quais são os princípios do Google em relação à construção da inteligência artificial. A lista inclui beneficiar a sociedade, evitar tendências injustas, ser responsável com as pessoas e manter os altos padrões de excelência cientifica.
Existe também um compromisso de não contribuir para causar prejuízos gerais ou danos fisicos, além de não violar normas internacionais, em especial, os direitos humanos. Para isso, o processo de revisão da IA busca identificar, avaliar e mitigar possível impacto negativo que a tecnologia pode trazer.
Fonte: em.com.br
Foto: Rádio Espacial FM / AdobeStock
18/05/2023 - Google pretende excluir contas inativas, a partir de dezembro; entenda
25/04/2023 - Twitter devolve selo azul para algumas celebridades e meios de comunicação
11/04/2023 - China quer regulamentar uso da inteligência artificial
04/04/2023 - Brasileiros recebem prêmio da Nasa por projeto de IA
22/03/2023 - Meta está construindo rede social descentralizada para competir com Twitter
14/03/2023 - Meta planeja lançar rede social de textos para concorrer com o Twitter
10/03/2023 - Meta amplia duração máxima de vídeos no Facebook Reels para 90 segundos
06/03/2023 - TikTok anuncia que vai limitar tempo de tela para adolescentes
27/02/2023 - PlayStation VR2 é lançado globalmente com dezenas de jogos de realidade virtual