Detalhe do Chroma V de Yunchul Kim. Bienal de Veneza 2022, Pavilhão da República da Coreia, Gyre - Curador: Youngchul Lee - Comissário: Arts Council Korea (Foto ER/nev)
Roma (NEV), 12 de junho de 2023 - ano de 2054. Zero homicídios em Washington, graças ao sistema Precrime, baseado nas premonições de três indivíduos com poderes extra-sensoriais. A polícia intervém com antecedência e prende os potenciais "perpetradores". É a trama de Minority Report, filme com Tom Cruise dirigido por Steven Spielberg Baseado na história de ficção científica de mesmo nome de Philip K. Dick.
Ano 2023. Itália. O Ministério do Interior gostaria de equipar as delegacias de polícia em toda a Itália com "Giove", um novo sistema de polícia preditiva (uma questão parlamentar sobre o assunto foi apresentada ao Senado em 7 de junho). Trata-se de um software baseado em um algoritmo de inteligência artificial que, por meio de bancos de dados policiais, tenta calcular a probabilidade de um crime.
A Inteligência Artificial desperta interesse, atração e medo. Nós conversamos sobre isso com Gianluca Fiuscorecentemente eleito para o Comitê Executivo Europeu da Associação Mundial para a Comunicação Cristã (WACC), e com Stefano Frache, engenheiro e tradutor, entre os curadores das diretrizes do projeto "Bem-estar das sociedades e locais de trabalho digitalizados" promovido pela rede "Ação da Igreja pelo Trabalho e pela Vida". Fiusco e Frache nos dão um panorama da complexidade e do fascínio da inteligência artificial (e humana), que faz parte do nosso cotidiano. São questões que nos desafiam como cidadãos e como instituições, inclusive religiosas.
“Hoje assistimos a uma polarização entre os que confiam na tecnologia e os que desconfiam dela. Mas essa abordagem não faz nada além de alimentar um dualismo funcional ao sistema binário: 1-0. Algoritmos tendem a agrupar pessoas semelhantes mantendo grupos distintos e distantes uns dos outros em bolhas virtuais. Assim a contaminação não se desenvolve, as ideias ficam confinadas à esfera onde foram concebidas e o pensamento não amadurece, não evolui. Vozes críticas são expostas aos fãs, odiadas e silenciadas. Acontece até nos parlamentos e até nas igrejas – diz Fiusco -. No entanto, como seres humanos somos muito mais complexos e articulados do que a métrica binária. Trazer nossas vidas de volta para mapas e algoritmos corre o risco de produzir efeitos imprevisíveis não apenas em nossa estrutura mental e neural, mas também em nossas sociedades. A reescrita dos 'códigos' humanos, da convivência social, da vida democrática são questões tão importantes quanto as mudanças climáticas”, diz Gianluca Fiusco, que lembra também o empenho do WACC na elaboração de conteúdos sobre algoritmos, discriminação, polarização e exclusão digital . “Algoritmos desenvolvidos segundo critérios subjetivos refletem os efeitos do colonialismo, do racismo e dos desequilíbrios sistêmicos de poder e agravam as desigualdades e discriminações existentes” diz o Manifesto pela justiça digital elaborado pelo Simpósio “Comunicação para a justiça social na era digital” organizado pelo WACC e o Conselho Mundial de Igrejas (CEC) em 2021.
Audre Lorde ele escreveu “As ferramentas do mestre nunca irão desmantelar a casa do mestre. Eles podem nos permitir vencê-lo temporariamente em seu próprio jogo, mas nunca nos permitirão fazer uma mudança real." A partir dessa advertência, diz Fiusco, “o WACC teve a oportunidade de refletir o quanto os instrumentos de opressão não podem ser aplicados de forma eficaz para combater a própria opressão”. Opressor que muitas vezes coincide com “homem, branco, rico”. Fiusco também lembra como as igrejas, durante a pandemia, "muitas vezes se reuniam virtualmente em plataformas financiadas por lobbies de alta tecnologia, que usam uma tecnologia semelhante, senão a mesma, ao reconhecimento facial ou aos sistemas de mira de armas... a falta de pastores foi resolvida ligando uma webcam”. Não se pode e não se deve ter medo do desenvolvimento tecnológico, argumenta Fiusco, “mas as igrejas, talvez mais do que outras organizações, têm o dever de se perguntar se esse é o modelo de comunidade que querem fomentar. Se, isto é, a fé hoje, parafraseando a Epístola aos Romanos, nasce mais do que da escuta, da conexão. Algumas realidades eclesiásticas (adventistas, luteranos, pentecostais) lançaram há muito tempo um processo de reflexão e experimentação avançada sobre animação digital para comunidades. Trata-se, portanto, de ter vontade e convicção para conceber e experimentar um modelo de mudança em que as Igrejas se sintam questionadas: capazes de investir tempo, teologia, recursos, visão, questionamentos. Na consciência de já estar atrasado”.
Stefano Frache ecoa: “A IA pode parecer programada para fazer coisas perturbadoras, mas podemos analisar suas implicações de várias perspectivas. Há um funcionamento interno, difícil de explicar, e um efeito externo. Os cenários que retratam a IA como monstruosamente autônoma não levam em conta o fato de que há muitas pessoas por trás dos agregados de dados e informações. O processamento pode ser aprimorado, no sentido da generalização, mas esses sistemas não sintetizam o pensamento, não extraem significado. Esta é uma forma de habilidade que não requer o desenvolvimento de um algoritmo, falar sobre IA dessa forma é enganoso. Vejo um risco maior em relação à privacidade e gerenciamento e manipulação de informações. O ostracismo tecnológico não é uma resposta, é irreal. Não podemos colocar um estilingue e uma ogiva de míssil no mesmo nível…”. Frache continua: “Com as eleições americanas de 2016, testemunhamos o primeiro caso bipartidário de interferência nos processos de formação da opinião pública. Se as opiniões podem ser influenciadas com IA, é claro que precisamos de ferramentas para nos defender, até porque no futuro o embate será entre sistemas cada vez mais evoluídos. Ainda falando de filmes, normalmente pensamos em jogos de guerra… mas coisas assim acontecem todos os dias, em graus variados, com ferramentas diferentes. A dissuasão é construída, interromper o desenvolvimento é prejudicial e perigoso…”
Há, novamente, o tema ético, que inevitavelmente se confunde com o dos negócios: “Totalitarismos e visões imperialistas não são apetites apaziguados. Por onde circulam negócios e dinheiro, fique de olho. O medo não ajuda nisso, porque se estamos com medo não conseguimos entender como podemos nos defender. Também se aplica a golpes. Cada vez mais vítimas, não só (mais) entre os idosos. Não é ser travesso, é ser esperto para não ser enganado. E para isso é preciso inovação, pesquisa e conscientização”, continua Stefano Frache. E conclui: “É preciso construir e entender a confiabilidade da informação. Temos medo da IA, mas não temos medo dessa tecnologia que carregamos no bolso todos os dias e da qual ninguém fala. Lembremos que a mudança também é influenciada por escolhas de comportamento e de compra. Precisamos voltar na estratificação da tecnologia, que dos sistemas operacionais, às plataformas, chega depois aos consumidores, passando pelos pilotos explorados, só para dar um exemplo. No entanto, as multinacionais são influenciadas por 3% dos consumidores, não 50%… veja o caso da Chiquita. Pouco menos de 3% de abandono foi suficiente para mudar as condições de exploração dos agricultores. Quando uma massa pequena, mas coerente, muda de comportamento, a mudança já foi acionada. Pensar que você é irrelevante porque está em desvantagem numérica pode ser uma desculpa perigosa para sair, em vez disso, você precisa manter uma forte motivação e não desistir”.
...
Ler artigo
Deixe o seu comentário! Os comentários não serão disponibilizados publicamente