Os Algoritmos e a Ética

Leia mais

Evandro Oliveira
Evandro Oliveira
PÓS GRADUADO EM GESTÃO E DIREÇÃO ESCOLAR; ESPECIALISTA EM "POLÍTICAS DA IGUALDADE RACIAL NA ESCOLA", SABERES AFRICANOS E AFRO-BRASILEIROS NA AMAZÕNIA - PELA UNIVERSIDADE FEDERAL DO PARÁ (UFPA); GRADUADO CIÊNCIAS SOCIAIS COM ÊNFASE EM SOCIOLOGIA - UFPA; ATUA COMO PROFESSOR DE FILOSOFIA E SOCIOLOGIA NA REDE PÚBLICA E COMO PROFESSOR NO ENSINO SUPERIOR E CURSOS PRÉ-VESTIBULARES.
Precisamos de uma tecnologia centrada no ser humano

Em novembro de 2021 a Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) publicou um importante relatório intitulado Recomendação sobre a Ética da lnteligência Artificial. Este importante documento das Nações Unidas sumariza bem o desafio: “esta tecnologia, às vezes despercebida, mas muitas vezes com consequências profundas, transforma nossas sociedades e desafia o que significa ser humano. Precisamos de políticas e estruturas regulatórias internacionais e nacionais para garantir que essas tecnologias emergentes beneficiem a humanidade como um todo. Precisamos de uma IA centrada no ser humano. A IA deve ser para o maior interesse das pessoas e não o contrário“.

O aprimoramento de sistemas de reconhecimento facial para viabilizar sua efetividade no contexto da realidade brasileira que é abençoada pelo que talvez seja a maior diversidade étnica do planeta. Quando penso nisso eu me lembro do interessante depoimento de um empresário chinês em um webnar do qual fiz parte recentemente sobre as oportunidades de negócios entre o Brasil e a China. Segundo o empresário, na sua primeira vinda ao Brasil ele mal podia acreditar em duas coisas: A imensa diversidade étnica da população e o fato de que em várias ocasiões as pessoas vinham até ele já falando em português como se ele fosse brasileiro. Mais interessante ainda foi o que ele pensou de tudo isso: “parece que eu tinha viajado para frente no tempo, parece que eu estava vendo como será nossa civilização no futuro“.

E foi pensando no desafio dos dados de treinamento do banco de dados e nas necessárias adaptações / aprimoramentos nos algoritmos que estaremos utilizando no aprendizado de máquina subjacente ao desenvolvimento do nosso software que me veio à mente uma experiência pessoal vivida na Inglaterra há alguns anos. Como todo estudante vindo de fora daquele país eu tinha um prazo de algumas semanas para me registrar como residente junto às autoridades locais. Para isso eu precisava de duas fotos para documentos. Fui até uma daquelas cabines automatizadas para tirar fotos que existia no grêmio estudantil da universidade (e que a gente vê muito em filmes) para cumprir minha tarefa. Saiu aquele tipo de foto onde você tem a impressão que está há 72 horas sem dormir, mas que era boa o suficiente para as minhas necessidades. Logo atrás de mim, veio um outro estudante na mesma situação e oriundo da Africa Central. Já havíamos nos tornados bons amigos e eu o estava esperando para que fizesse também o seu “para casa” na máquina automatizada de fotografias. Ele saiu de lá com uma expressão de perplexidade e disse: “veja, não saiu nada”. De fato, a foto estava totalmente embaçada e não permitia nem minimamente identificar os traços de seu rosto. Pensamos que tinha havido um problema com a máquina e sugeri que ele tentasse novamente. A foto veio do mesmo jeito. Como último teste e após algumas moedas de uma libra eu voltei à máquina de fotografia e a minha foto veio “normal” (apesar do indeletável efeito “72 horas sem dormir”). Foi aí que nos demos conta do que estava acontecendo. Era o ajuste da máquina. Ou se fôssemos trazer isso metaforicamente para a nossa nova realidade, isso se devia a forma como a máquina havia sido “programada”. Se devia ao “algoritmo” que foi colocado lá.

O fato que a maioria dos estudantes era de origem europeia e normalmente tinha a pele muito clara fez com que os “programadores” da cabine de fotografias decidissem dar um upgrade na “qualidade das fotos”. A ideia era adicionar um bronzeado extra aos usuários da cabine que ficariam, portanto, com uma aparência “mais saudável”. Estou certo que aqui não houve nenhuma má intenção e quem ajustou a máquina não dimensionou corretamente as consequências. Mas o viés estava lá, assim como os mais variáveis tipos de vieses são inerentes às pessoas. Só se livram deles quem já atingiu a iluminação. Mas isso, no contexto que vivemos hoje, tem uma outra dimensão em termos de consequência. Voltando mais uma vez à UNESCO a questão da ética no desenvolvimento e aplicação de tecnologias computacionais inteligentes é hoje um tema que “transforma nossas sociedades e desafia o que significa ser humano“.

E tudo isso está aqui bem pertinho, por exemplo ao alcance de nossas mãos. Vejamos o caso das mídias sociais e mais recentemente do Twitter. A plataforma jurava de pés juntos que seus algoritmos eram neutros não contendo nenhum viés. Eram eliminados apenas as postagens que feriam a “liberdade de expressão”. Mas mesmo antes de se completar o processo de transição para o controle de Elon Musk, inúmeros usuários da plataforma começaram a apresentar dezenas (às vezes centenas) de milhares de seguidores da noite para o dia. Postagens de pessoas e instituições que muitos já haviam até se esquecido de estarem seguindo de repente voltaram a aparecer em grande número. Tudo indica (ainda estamos todos aguardando a transparência prometida pelo novo controlador do Twitter com relação aos algoritmos da plataforma) que a programação era elaborada deliberadamente para impedir que qualquer um que não estivesse alinhado com o viés ideológico e econômico da plataforma tivesse suas postagens adequadamente encaminhadas a outros usuários. Imaginem as consequências disso visto que, como muitos entendem, o Twitter é a de facto praça pública global. Imaginem as consequências sociais desse tipo de viés. E aqui neste caso, assim como em uma infinidade de outros nesta nova realidade digital, o viés é infinitamente mais perigoso, pois não tem nada de acidental.

A gravidade do tema e das questões éticas subjacentes não podem ser subestimadas de forma nenhuma. Vejam o que acontece com a maior parte da mídia tradicional no mundo e no Brasil. Imaginem algorítmicos enviesados potencializando para uma escala global o que parte desta mídia tem feito. Mas, como mostra o relatório da Unesco, a questão ética relacionadas às novas tecnologias inteligentes é muito mais ampla.

  • “Ética é tornar explícitos os valores que estão por trás de nossas políticas, escolhas e ações, e aplicá-los à tomada de decisão humana. Os direitos humanos são o terreno comum básico.
  • As tecnologias de IA (inteligência artificial) não são neutras em termos de valor, elas devem ser firmemente embasadas em certos valores humanos fundamentais comuns e em particular os valores internacionais de direitos humanos.
  • As tecnologias de IA estão sempre evoluindo e precisam ser constantemente acompanhadas pela ética como um processo dinâmico para garantir que os direitos humanos e as liberdades sejam sempre protegidas.
  • As estruturas éticas fornecem respostas essenciais nos casos em que a regulamentação não exista ou não possa existir”.

Neste sentido, como recomenda o relatório das Nações Unidas, este enorme desafio só pode ser vencido se os encaminhamentos necessários estiverem embasados em valores e princípios essenciais. No primeiro caso estamos falando de “respeito, proteção e promoção dos direitos humanos, das liberdades fundamentais e da dignidade humana – de ambientes e ecossistemas florescentes – da garantia à diversidade e à inclusão – e do viver em paz, com justiça e com interligação entre as sociedades”. No segundo caso estamos falando em “proporcionalidade e no compromisso de não causar danos – da segurança e proteção das pessoas – da justiça e da não discriminação – da sustentabilidade – do direito à privacidade e proteção de dados – da supervisão e da determinação humana – da transparência e da explicabilidade – da responsabilidade e prestação de contas – da conscientização e da alfabetização – da governança e da colaboração multi stakeholder (abrangendo partes interessadas de toda a sociedade)”.

Tudo isso parece difícil e realmente é. Muitíssimo! Mas percorrer este caminho não é uma opção. É essencial e existencial. O único caminho possível é o da educação que leva ao conhecimento, à conscientização e à responsabilidade. Isso em todas as áreas. Das ciências biológicas às ciências exatas, passando pelas ciências humanas e pelas ciências sociais. Mas há um tipo de profissional em particular que tem uma responsabilidade especial, em meio a algoritmos, matemáticas e sistemas, de entender as implicações éticas e morais de tudo isso com muita profundidade: os próprios cientistas da computação.

por José Antônio de Sousa Neto

VOZ DO PARÁ: Essencial todo dia!

- Publicidade -spot_img

More articles

- Publicidade -spot_img

Últimas notíciais