A ética provoca
debates acirrados na sociedade desde os tempos do filósofo Aristóteles. Como
ela é definida a partir da moral humana, algo que, por sua vez, sofre
influência de questões sociais e culturais, chegar a um consenso global sobre
determinados temas é um desafio e tanto.
Com o avanço
tecnológico, o debate sobre a ética ganha nova proporção e envolve mais
participantes, que enxergam riscos que vão desde a banalização de abusos de
privacidade até o agravamento do preconceito e da discriminação contra
determinados grupos da população.
A preocupação se
justifica se olharmos para os casos recentes de uso de dados de usuários do
Facebook por uma empresa de marketing, ou para o algoritmo do Google Fotos, que
identificava pessoas negras como gorilas.
Centro de pesquisa
Muitos desses
riscos estão atrelados à inteligência artificial (IA), uma vez que a tecnologia
avança de forma rápida e descentralizada, sem parâmetros claros, e desenvolvida
por humanos com os mais variados vieses e preconceitos.
Instituições de
ensino e pesquisa já se movimentam para propor um direcionamento ético para o
avanço tecnológico. Entre elas está a Universidade de Stanford, referência
mundial em inovação e tecnologia, que lançou um centro de pesquisa
interdisciplinar com a meta de reunir formuladores de políticas públicas,
pesquisadores e estudantes responsáveis pela elaboração das tecnologias do
futuro.
Vários governos
e até mesmo empresas também já revelaram preocupação a respeito de questões
éticas, emitindo sugestões de conduta para as iniciativas em IA, que se
popularizam no universo corporativo com os chatbots.
Princípios éticos em IA
Uma proposta de
estrutura ética é a Declaração de Montréal, criada por órgãos públicos e
privados do Canadá e baseada em dez princípios fundamentais para soluções em
IA:
§
Bem-estar,
§
Respeito à autonomia,
§
Proteção da privacidade,
§
Solidariedade,
§
Participação democrática,
§
Igualdade,
§
Inclusão e diversidade,
§
Responsabilidade,
§
Prudência
§
Desenvolvimento sustentável.
Desenvolvedores
de chatbots corporativos defende a transparência nas interações envolvendo
chatbots. De maneira prática, essas empresas sustentam que, desde o início da
comunicação, deve-se informar ao usuário que ele está falando com uma máquina,
e também ser claro sobre o uso de dados pessoais. Para reter ou compartilhar
informações do cliente, a empresa precisa obter sua autorização expressa.
A privacidade de
informações pessoais, aliás, já é prevista na lei de proteção de dados em vigor
na Europa, e que irá vigorar no Brasil a partir de agosto de 2020.
Consumidores em alerta
A preocupação já
chegou também aos consumidores. Segundo pesquisa da Capgemini, 62% dos
entrevistados confiam mais em uma AI quando suas interações são percebidas como
"éticas", e mais de 70% aguardam regulação sobre o uso da tecnologia.
Para as empresas
e desenvolvedores que estavam alheios às questões éticas e de privacidade
envolvendo os chatbots, essa é a hora de se adequar.
Autor:
Cassiano Maschio
é diretor comercial da Inbenta no Brasil
Fonte: Jornal do Comércio do RS