Em uma entrevista para a "Wired Magazine", o
historiador e escritor Yuval Harari alertou para o perigo da humanidade em
pouco tempo se tornar “irrelevante” e “redundante” diante dos avanços da
Inteligência Artificial. Dessa vez, não mais através das distopias como a do computador
HAL 9000 que tenta matar a tripulação de uma nave no filme “2001” ou por replicantes
que perseguem um policial no filme “Blade Runner”. Mas agora por meio dos
aplicativos e algoritmos que “compreendem melhor nossos desejos e sentimentos
do que nós mesmos”. Porém, o discurso de Harari atira no que vê e acerta no que
não vê – só podemos achar que os algoritmos são realmente inteligentes se o
próprio homem rebaixar ou tornar mais flexível o conceito de “inteligência”. A
fala de Harari faz parte de uma nova narrativa publicitária das corporações
tecnológicas: projetar para o futuro distopias que sempre fascinaram a
humanidade por toda a História: ver a si própria substituída por
duplos tecnológicos como reflexos em espelhos, fotografias, frankensteins,
golens, robôs, replicantes e, agora, aplicativos.
Os anos 1990 foi a década da popularização
da Internet, de livros didáticos como A
Vida Digital do cientista Nicholas Negroponte que tentava esclarecer para
os mortais como a passagem do átomo para o bit revolucionaria a cultura e a
economia, e do messianismo empresarial de Bill Gates com o livro A Estrada do Futuro prevendo revoluções
na educação e nos negócios com as redes multimídia.
Mas também foram anos das distopias que viam
com desconfiança essa hegemonia digital: cyberpunks e tecnocríticos
herdeiros das visões do livro Neuromancer
de William Gibson nos anos 1980, cujo auge foi a trilogia Matrix – um pesadelo
gnóstico na qual as máquinas transformaram a realidade em um deserto e os
homens prisioneiros em uma realidade virtual, enquanto seus corpos têm a
energia drenada pelas máquinas para manter a Matrix.
Utopia e messianismo, até aqui, sempre foi a
narrativa pela qual as corporações como Microsoft, Apple ou Oracle vendiam o
futuro para os usuários. Mas as coisas estão mudando: no lugar está surgindo uma
estranha distopia (um estilo apropriado dos tecno-críticos do passado) na qual
autoabdicação humana e messianismo religioso
se misturam. O que resulta numa espécie de tecno realismo amargo sobre um
futuro inevitável onde nos tornamos dependentes da tecnologia.
E por que? Porque os algoritmos se tornaram
mais inteligentes do que nós. O homem deixou de ser o “mais sofisticado sistema
de processamento de dados do Universo”, substituído por “algoritmos externos”
em máquinas e aplicativos.
Essa é a visão de Yuval Harari em seu livro Homo Deus: A Brief History of Tomorrow (“Homo
Deus: Uma Breve História do Amanhã”) – para Harari, o homem estaria prestes a
se tornar irrelevante. Mas o mundo melhorará. E por que? Porque o fator humano
será eliminando com a Inteligência Artificial – carros automáticos e médicos de
IA, por exemplo.
A entrevista abaixo foi concedida por Yuval
Harari à Wired Magazine. Nas palavras
de Harari podemos facilmente encontrar os elementos da nova religião promocional atual: a da
autoabdicação humana (o rebaixamento da noção de inteligência, permitindo-nos
humanizar máquinas e aplicativos), um dos aspectos do tecnognosticismo contemporâneo.
Dessa vez, por trás da cultura dos aplicativos, redes sociais e smartphones.
Vamos à entrevista e depois esse humilde
blogueiro irá tecer alguns breves comentários.
Yuval Harari |
A Humanidade está próxima de se tornar irrelevante
Olivia Solon (Wired Magazine, 21/02/2017)
WIRED: Em seu livro,
você prediz o surgimento de duas religiões completamente novas. Quais são elas?
HARARI: Tecno-humanismo almeja
amplificar o poder dos humanos, criando ciborgues e conectando os humanos aos
computadores, mas isto ainda vê os interesses e desejos humanos como sendo a
mais alta autoridade no Universo.
Dataismo é um novo sistema ético que diz, sim,
humanos eram especiais e importantes, porque até agora eles eram os sistemas de
processamento de dados mais sofisticados do Universo, mas este não é mais o
caso. O ponto da virada é quando você tem um algoritmo externo que compreende
você – seus sentimentos, emoções, escolhas, desejos – melhor do que você mesmo
os entende. Esse é o ponto quando há uma mudança que torna os humanos
redundantes.
WIRED: Como
assim?
HARARI: Tome por exemplo o Google Maps ou o
Waze. Por um lado eles amplificam a habilidade humana – você é capaz de
alcançar seu destino mais rapidamente e com mais facilidade. Mas ao mesmo
tempo, você está mudando a autoridade para o algoritmo, e perdendo sua
habilidade de encontrar seu próprio caminho.
WIRED: O que
isto significa para o Homo sapiens?
HARARI: Tornamo-nos menos importantes,
talvez irrelevantes. Na era humanista, o valor de uma experiência veio de
dentro de você mesmo. Na era Dataista, o significado é gerado pelo sistema
externo de processamento de dados. Você vai a um restaurante japonês e pede um
prato maravilhoso, e a coisa a ser feita é tirar uma foto com seu celular,
colocá-la no Facebook, e ver quantas curtidas consegue. Se você não
compartilha suas experiências, elas não se tornam parte do sistema de
processamento de dados, e elas não têm significado.
WIRED: A mudança
para o Dataismo importa para a política?
HARARI: No Século XX, a politica era o campo
de batalha entre as grandes visões sobre o futuro da humanidade. As
visões eram baseadas na Revolução Industrial e a grande questão era o que fazer
com novas tecnologias como a eletricidade, os trens e o rádio. Seja lá o que
for que você diz sobre personagens como Lenin e Hitler, você não pode acusá-los
de falta de visão. Hoje, ninguém na política tem qualquer tipo de visão; a
tecnologia está se movendo rápida demais e o sistema político é incapaz de
fazer sentido disso.
WIRED: Quem pode
fazer sentido disso?
HARARI: O único lugar que você escuta visões
amplas sobre o futuro da humanidade é no Vale do Silício, de Elon Musk, Mark
Zuckerberg. Pouquíssimas pessoas têm visões competitivas. O sistema política
não está fazendo seu trabalho.
WIRED: Então, as
empresa tecnológicas se tornam os novos imperadores, até mesmo deuses?
HARARI: Quando você fala sobre Deus e
religião, no final é uma questão de autoridade. Qual é a mais alta fonte de
autoridade que você procura quando tem um problema na sua vida? Mil anos
atrás você procuraria a igreja. Hoje, esperamos que os algoritmos nos forneçam
a resposta – com quem ter um encontro, onde viver, como lidar com um problema
econômico. Assim, mais e mais autoridade está indo para estas corporações.
WIRED: Temos a
opção de sair disso?
HARARI: A resposta mais simples é não. Será
muito difícil puxar a tomada, e isto tem a ver com o cuidado com a saúde, que
cada vez mais depende de sensores conectados à Internet. As pessoas
estão dispostas a desistir de suas privacidades em troca dos serviços médicos,
os quais dizem a você o primeiro dia que as células cancerígenas começam a se
espalhar pelo seu corpo. Assim, poderemos alcançar um ponto quando será
impossível desconectar.
WIRED: Sobre o
que podermos ser esperançosos?
HARARI: Há muitas coisas para sermos
esperançosos. Em 20 a 30 anos centenas de milhões de pessoas que não têm acesso
aos cuidados de saúde terão acesso aos médicos de IA (Inteligência Artificial)
em seus smartphones, oferecendo um melhor serviço que qualquer um recebe agora.
Carros sem motoristas não irão eliminar os acidentes, mas eles irão reduzi-los
drasticamente.
WIRED: Puxa…
então não estamos condenados?
HARARI: A humanidade provou sua habilidade
de se elevar para encarar os desafios apresentados pelas novas tecnologias –
nas décadas de 50 e 60, muitas pessoas esperavam que a Guerra Fria terminasse
com um holocausto nuclear. Isso não aconteceu. Após milhares de anos nos quais
a guerra parecia ser uma parte inevitável da natureza humana, mudamos a forma com
que as políticas internacionais funcionavam. Espero que também sejamos capazes
de encararmos os desafios das tecnologias como a IA e a engenharia genética,
mas não temos espaço para o erro.
A religião da autoabdicação humana
O problemas de discursos como esse
de Yuval Harari é que, no fundo, não passa de uma forma de propaganda que nos
induz a acreditar que algoritmos, aplicativos etc. são, de fato, ferramentas
realmente inteligentes. Para acreditarmos nisso, temos que obrigatoriamente
reduzir os nossos padrões de inteligência humana – o exercício diário de tratar
máquinas ou aplicativos, como por exemplo Waze ou Google Maps, como formas de
inteligência reais. O que resulta num senso de realidade mais flexível.
Jaron Lanier |
Para o cientista computacional e
design de softwares Jaron Lanier, essa inversão é a base de uma religião que
está sendo gestada nesse momento no Vale do Silício: a religião da
auto-abdicação humana – computadores se humanizam, enquanto humanos se tornam
“processadores de informação” rebaixando os padrões do que entendemos como inteligência
– sobre isso clique aqui.
Harari acredita que o ser humano
pode se tornar “redundante” ou “irrelevante” porque os algoritmos se tornaram
“inteligentes”. Com esse discurso, Harari perde de vista que ele próprio faz
parte de uma narrativa promocional criada pelas corporações para rebaixar ou
tornar mais flexível a noção de “inteligência” – acreditamos que os algoritmos
“ampliam nossas habilidades”. E, por isso, nos ameaçaria de obsolescência ao
substituir a autoridade humana.
Enquanto isso, aplicativos como Waze
produzem acidentes no trânsito, algoritmos do sistema financeiro criam ameaças
de crises sistêmicas por decisões de compra e venda em série equivocadas e as
redes sociais rebaixam a noção de “amizade” através da popularização dos
conceitos como “likes”, “seguidores”, “compartilhamentos” ou reações a
postagens por meio de “emoticons”.
Isso sem falar nos aplicativos de
relacionamentos que reduzem as relações afetivas à probabilidade estatística.
Harari fala que os algoritmos
externos compreendem melhor nossos desejos e emoções. É exatamente o inverso:
por rebaixarmos o conhecimento de nós mesmos, humanizamos (ou antromorfizamos)
os aplicativos ao ponto de acreditarmos que eles “nos conhecem”.
Filme "Ela", 2013 |
O filme Ela (Her, 2013) é um
ótimo exemplo dessa inversão absurda. No filme vemos um protagonista solitário
que se apaixona por um sistema operacional chamado Samantha, dotado de uma voz
sensual e sedutora. Para ele, cada vez mais o sistema parece ser uma pessoa
dotada de sentimentos reais – sobre o filme clique aqui.
O problema é que o protagonista
possui tão baixa auto-estima que, por isso, rebaixou suas expectativas em
relação ao amor e relacionamentos. A máquina não é inteligente: é o homem que
rebaixou a si próprio.
Por isso, o discurso de Yuval Harari,
na entrevista da verdadeira bíblia do Vale do Silício que é a revista Wired, é
a mais nova tática publicitária das corporações tecnológicas: vender os
aplicativos através do mito da inteligência artificial e da autoridade
algorítmica.
É o fascínio arquetípico que sempre acompanhou a história da
humanidade: ver a si própria substituída por duplos tecnológicos: reflexos em
espelhos, fotografias, frankensteins, golens, robôs, replicantes e, agora,
aplicativos.
Postagens Relacionadas |