Autoria Algorítmica

Autoria Algorítmica (dos meus comentários na Radio Metrópole de Salvador)

Muito se fala dos erros algoritmos, dos vieses, do preconceito de raça e gênero gerados pela utilização ampla dos algoritmos em diversos setores da sociedade contemporânea (trabalho, lazer, segurança pÚblica).

Sempre que apontamos esses erros, tomamos como causa o código fonte, ou a montagem equivocada da base de dados, ou seja, a autoria da escrita do algoritmo e do conjunto de dados que deve alimentá-lo. A solução passaria por uma boa auditoria que revelasse esses equívocos, por uma ampla investigação sobre os códigos e as bases de dados para dar transparência e poder, assim, corrigir os rumos das ações engendradas pelos algoritmos.

A questão da autoria é tão importante que o argumento é que deve ser preciso garantir uma certa heterogeneidade étnica, social e de gênero na escrita do código, e de visões de mundo na montagem da base de dados para contrabalançar o poder dos que se mantêm no comando da programação mundial (na maioria homens, brancos, do norte global). Eu mesmo já defendi essas ações. Busca-se responsabilizar a autoria em uma luta politica que vai corrigir os seus erros. Certo? Errado.

A leitura do livro Cloud Ethics (Ética da Nuvem) de Louise Amoore, sem tradução no Brasil, com exemplos e argumentos muito consistentes, me convenceu que essa perspectiva não vai ajudar a enfrentar o problema do enviesamento, dos erros algorítmicos. Amoore sustenta que a lógica do funcionamento dos algoritmos não pode ser encontrada analisando o código fonte ou o data set, pois eles não são uma entidade unificada. A autoria é mÚltipla e distribuída, tomando emprestado atributos e valores de outros sistemas análogos. Algoritmos são, portanto, generativos, com propriedades emergentes. Em sistema de machine learning, de inteligência artificial, o código é continuamente reescrito pelo engajamento com o mundo.

Por exemplo, explica Amoore (tradução minha): “à medida que os algoritmos de rede neural que animam os robôs se tornam mais sensíveis ao contexto e aos atributos do comportamento, eles modificam suas próprias ações aprendendo com as interações com outros robôs. Os algoritmos não são simplesmente os ‘autores de seu próprio código’ no sentido de localizar a autoria em uma máquina autônoma, mas, em vez disso, estão envolvidos em atos de escrita e reescrita que unificam elementos dispersos e heterogêneos”. (2020, p. 94).

Eles mudam seus comportamentos e apresentam resultados diversos se reescrevendo a partir de ajustes particulares. A questão, portanto, não está na autoria do código, ou da base de dados, mas na sua reescrita, ou seja em uma função autoral própria.

Como em romances, diz Amoore. O problema não seria tanto quem escreve um livro, mas como este é performado na sociedade, como é lido de acordo com situações particulares. Ou seja, sua agência depende da forma como ele é reescrito pela leitor e a crítica. Ambos reescrevem a obra questionando, por exemplo, por que esse argumento e não outro, por que a história bifurcou nesse momento, por que essa personagem… A performance de um livro não está linearmente posta nas letras da obra, mas no momento posterior. Essa analogia, claro, deve ser mantida em suas proporções já que a função performativa e automática dos algoritmos, sua função autoral é mais incisiva (decide coisas de maneira automática e sob o manto da neutralidade técnica).

Portanto, não é o autor do código, mas a função autoral de reescrita do algoritmo que deve ser ser o lugar de discussão sobre as dimensões ético-políticas dos algoritmos.

Todo objeto é ético-politicamente problemático, e esta questão está além da autoria ou do código do objeto (em um carro, por exemplo, o problema não está nem o motor, nem no fabricante, apenas, mas na sua inscrição e ação no mundo). Um hipotético algoritmo que, na África do Sul da época do Apartheid discriminasse negros em um processo de seleção em uma empresa, poderia ser interpretado como eticamente neutro. Hoje não mais.

O que fazer?

Tentar apenas controlar código e o data setting não resolvem. Garantir diversidade de quem e de onde se escreve os códigos é fundamental, mas não é suficiente.

A saída estaria na discussão da função autoral dos algoritmos, nas performances de reescrita de suas funções que produzem questões urgentes hoje: monitoramento de emoções, sistemas de reconhecimento facial, algoritmos de recomendação em redes sociais…

Não se trata, portanto, apenas de atacar os vieses pela correção do código e do data set, mas de entender que a questão ético-política dos algoritmos está na sua reescrita que produz um mundo.

Referência:

Amoore L (2020) Cloud Ethics: Algorithms and the Attributes of Ourselves and Others. Durham, NC: Duke University Press.