Racismo Algorítmico?
Na última edição de dezembro/2019, a Revista E, publicação mensal do SESC, São Paulo, apresenta dois artigos a propósito da pauta “Existe neutralidade nas redes?”. Eu vou comentar diretamente o artigo “As tecnologias não são neutras” (p. 44)[1]. Mas o que pretendo comentar diz respeito igualmente ao artigo primeiro, pelo menos quanto à premissa inicial, que existe um “racismo algorítmico” das Inteligências Artificiais (IA) que estão por trás do compartilhamento de nossas redes de relacionamento digitais (“virtuais”) contemporâneas.
O referido artigo começa elencando o nome de vários fundadores famosos que obtiveram sucesso com suas invenções, afirmando que o que eles têm em comum, é o fato “da grande maioria – senão todos – serem brancos, heterossexuais e do hemisfério norte” (sic). E a partir daqui todo o texto reflete esta premissa fundante: os inventores das modernas redes de comunicação social fizeram algoritmos de acordo com sua própria visão racial, de gênero, social, política, projetando nos algoritmos programas “racistas”. E a comprovação disso, afirma-se, está nas respostas que os algoritmos nos fornecem, por exemplo, se for pesquisado “mulher bonita”. É verdade: a resposta neste caso é uma esmagadora quantidade de imagens de mulheres loiras, altas, esbeltas, de olhos azuis, com maças do rosto e lábios delineados e carnudos. Mas se isto acontece, por que, então, me atrevo a dizer que o problema é outro, e que o referido artigo não é convincente, aborda parcialmente o problema, para dizer o mínimo?
Primeiro: Para que um algoritmo (em síntese, um conjunto de instruções em linguagem específica de máquina) possa “tendenciosamente” reconhecer um objeto específico (mulher bonita) como resposta a uma demanda de um usuário (perfil), é necessário (sim!) que os programadores “inicialmente” (explicarei a seguir por que digo inicialmente) e “intencionalmente” tenham este objetivo – isto é possível fazer, mas tem que ser, repito, “inicialmente” e “intencionalmente”, porque não existe como concretamente afirmar que o estereótipo do programador, “por si só”, como que agindo em transe ou por intermédio de seu períspirito, “escreva” uma linha sequer de programa de máquina (linguagem de quarto ou quinto nível), específica e tecnicamente orientada a seu objeto (aquilo com se presta especificamente a lidar, tratar, interpretar, correlacionar, reutilizar), sem intencionalidade.
Assim, seguindo esta ideia, teríamos que afirmar (e acho mesmo que o artigo o faz: “o olhar, os objetivos, as intencionalidades, e as subjetividades de quem está criando, pensando e estruturando essas ferramentas.”) que Mark Zueckerberg agiu “intencionalmente” para criar em seus algoritmos, portanto, em seus aplicativos de rede sociais, o “racismo “?!
Segundo: Mas se isto não é feito “intencionalmente” pelos programadores, tanto os iniciais, como os seus continuadores, e para não incorrer na extensão “demoníaca” da imputação de culpabilidade por fomentarem o “racismo” de milhões de programadores no mundo, por que os mecanismos de busca presentes nos algoritmos por trás de nossas redes sociais digitais (não sei é apropriado falar “virtuais”) são “racistas”? Por que apresentam, afinal, nitidamente respostas a pesquisas sobre estética humana de acordo com um padrão determinado hegemônico? Posso apostar que qualquer tipo de “requisição” a um algoritmo de rede social apresenta a mesma distorção, quer dizer, nos entrega como resposta uma mesma associação a qualquer noção de beleza, nortenha, branca, patriarcal, medidas harmoniosas, proporcionais, irradiando luz por toda a parte, mais ou menos como Leonardo Da Vinci estabeleceu no Renascimento, há mais de 500 anos atrás.
A questão que escapa a muitos que se debruçam sobre o assunto é exatamente o fato que somos nós que formamos as redes sociais como sempre o fizemos em relação à sociabilidade física. O problema está na “rede” (ou seja, na relação social, física ou digital) e não propriamente no algoritmo por trás dela. Os usuários, os perfis, é que formam os bancos de dados (big data) que os algoritmos de IA leem.
Obviamente isto não exclui a possibilidade, infelizmente, que indivíduos mal intencionados possam desenvolver de forma intencional e perversa algoritmos tendenciosos do tipo racista. Mas isto não nos autoriza a generalizações do tipo que os algoritmos usados por bilhões de pessoas no mundo estejam contaminados propositalmente para entregarem respostas e soluções a requisições humanas do tipo “racistas” porque os inventores das redes e seus continuadores programadores assim o desejaram e desejam.
Terceiro: Então minha compreensão do “racismo algorítmico” resume-se assim: de fato as IA que trabalham em off para nos comunicar em rede e para nos fornecer todo tipo de resposta às nossas demandas, requisições, pesquisas, preferências e mesmo necessidades (porque muito do que fazemos em redes digitais é só lixo, mas virtualmente é um lixo precioso), leem nossos perfis, e guardam em algum lugar da nuvem WWW (word wide web) tudo o que fazemos na rede, tudo que vimos, assistimos, publicamos, imagem por imagem, objeto por objeto, o que comentamos, palavra por palavra, vírgula por vírgula (inclusive esta postagem, e quem a está a ler).
Está tudo lá, armazenado pelos algoritmos... Assustador, mas é a partir daí que a IA interpreta, compreende, conclui, responde e sugere, em resumo, prospecta e projeta. Portanto, tão importante, ou mais, que aquilo que o programador fez “inicialmente”, ou como se continua a programar, é o depósito de propósitos e ações que os usuários humanos fazem nas redes digitais. O algoritmo inicial é cada vez mais irrelevante do ponto de vista da IA e dos big datas que ela acessa mundo afora.
Pode parecer assombroso esta afirmação, mas qualquer programador pode nos esclarecer, levando em consideração fundamentos de engenharia de software, e nos explicar que para uma IA o algoritmo deixa de ser tão determinante, porque as mais avançadas IA não se “curvam” mais a eles, pois elas mesmas aprendem que o mundo real, do seu ponto de vista, não é o algoritmo “inicial”, mas o que os perfis humanos deixam como rastros ao usarem as redes sociais digitais. O que temos que nos atentar é que não existe de fato nada “virtual” para uma IA, pois tudo que um usuário submete ou requisita, é real, e é isso que predominantemente carrega o escopo de soluções e projeções, ou respostas, que uma IA leva em consideração, e nos oferece como sugestão. O padrão não é exatamente o padrão do inventor ou programador, mas do usuário. O “algoritmo” racista por trás da IA somos nós!
Então, é necessário distinguir “algoritmo” de IA - quem ordena hoje nossa vida digital é a IA. Mais uma vez: claro que um programador mal intencionado e perverso pode orientar no seu programa algorítmico, que a IA venha a ler, “instruir-se”, a partir de um leque reduzido e específico de imagens, sons, textos, ou a partir de informações unicamente de determinados perfis de usuários, captando apenas semelhantes manuseios e comportamentos em rede, com intuito de direcionar para um ponto ou objetivo a compreensão possível da IA. E de fato é isto que acontece inicialmente: quando se põe para funcionar um algoritmo, ele tem que capturar as informações em algum lugar, mas não duradouramente, a não ser, claro, que uma certa “manutenção” seja perpetuada no programa propositadamente, impedindo que a IA tenha acesso intencionalmente a big datas múltiplos e mais amplos.
Quarto: A não ser, portanto, que se parta do princípio que “intencionalmente”, propositadamente e constantemente se adeque os algoritmos para impedirem uma IA de progredir, a menos que seja perversa e permanentemente induzido uma IA a se limitar ao algoritmo restritivo, a menos que a IA seja impedida de vasculhar e aprender por si própria o que os humanos estão escolhendo publicar, falar, escrever e aceitar ou rejeitar (por exemplo, com os ícones Like e outros vetores), não existe “racismo algorítmico” – existem usuários racistas, homens que usam as redes sociais digitais para destilarem seu preconceito e ódio!
Quinto: Preocupa-me, sobremaneira, que se trabalhe com parco conhecimento científico de tecnologia de informação questão tão delicada e complexa, principalmente porque não vejo como saída para a cultura racista que nos atormenta, no Brasil, e no mundo, um tipo de narrativa que não coloca luz e entendimento sobre o problema, mas ao contrário, ilude e acaba, afinal, disfarçando as relações sociais estruturais da sociabilidade brasileira, derivando para a procura de um bode expiatório, que de verdade, não parece ser verossímil como causador de nosso ódio racial, neste caso, os fundadores e programadores das redes sociais digitais.
Afirmar, como os referidos artigos o fazem, que as tecnologias não são neutras, não nos diz muita coisa, a menos que seja admitido por todos nós o nosso racismo latente e endêmico. A conclusão do referido artigo “As tecnologias não são neutras” é, depois de alertar para o número pequeno de mulheres e ínfimo de negros em programação, que sem negros programadores, por exemplo, “nós vamos perder totalmente nosso poder de integração no mundo”, “nós não vamos fazer parte do futuro e do que está sendo feito”...
Gostaria que fosse assim tão simples, tão fácil, mas em minha opinião, os algoritmos vão continuar lendo e armazenando o que fazemos na web, e as IA vão continuar nos interpretando e seguindo a partir disso – na verdade, as IA querem nos agradar, nos deixar felizes com o que nos apresentam e sugerem, baterem papo conosco, mais como uma mãe que tudo nos aceita, do que com a razão – sim, não é aceitável que sejam usadas por uns ou por outros para qualquer tipo de “racismo”. Mas se de uma forma ou de outra somos preconceituosos e racistas, a IA nos conduz sempre cada vez mais para afirmar nosso preconceito e racismo, sejam de que tipo for.
No dia em que os negros, para ficar na temática do artigo em pauta, forem a maioria programando, o que escreverão em seus programas, o que farão com seus algoritmos, como irão impedir a IA de seguirem os nossos comportamentos nas redes sociais, e nas demais utilidades que elas nos proporcionam? Espero que a resposta seja a ética e uma vida boa para todos, afinal que a resposta seja diferente daquela que o artigo instiga a acreditar, a maldição dos inventores e programadores brancos, heterossexuais e do hemisfério norte.
Ou então, que as IA do futuro, para a humanidade, possam ser mais sensatas e sensíveis, e capazes de ir além do ressentimento, possam, nestes casos, escolher por nós.
Comentários
Postar um comentário
Agradecido pela participação. Verifique se seu comentário foi publicado.