Evolução da Inteligência Artificial - Literatura (2024)

Gran

Cleitom Ferreira 24/09/2024

Prévia do material em texto

<p>Prefácio</p><p>Fábio Gagliardi Cozman1</p><p>A expressão “inteligência arti�cial” foi cunhada há décadas e tem habitado o</p><p>imaginário humano desde então. Vivemos hoje uma mudança na percepção da</p><p>sociedade sobre essa tecnologia: notou-se que vários artefatos computacionais</p><p>podem atingir bom desempenho em tarefas normalmente associadas à</p><p>inteligência, algo que pareceu por décadas pertencer apenas às obras de �cção</p><p>cientí�ca.</p><p>Embora muitas ferramentas computacionais baseadas em inteligência</p><p>arti�cial tivessem algum sucesso antes de 2010, foi a partir daquele ano que a</p><p>tecnologia conseguiu sensibilizar a sociedade como um todo. Por exemplo,</p><p>antes de 2010 já existiam algoritmos capazes de provar teoremas matemáticos</p><p>de grande complexidade; porém, a partir de 2010 passamos a ter também</p><p>sistemas computacionais capazes de identi�car faces com grande grau de</p><p>acerto. Alguns sistemas computacionais contemporâneos têm grau de acerto na</p><p>detecção de faces maior do que o grau de acerto obtido por seres humanos. Ou</p><p>seja, são sistemas com desempenho “super-humano”. Certamente um provador</p><p>de teoremas automático gera curiosidade, mas um detector de faces</p><p>extremamente preciso gera perplexidade. Se um computador pode atingir</p><p>excelência em uma atividade tão intrinsecamente humana, o que isso nos diz</p><p>sobre a condição humana?</p><p>A década de 2010 foi uma época de crescimento vertiginoso para a</p><p>inteligência arti�cial. Em 2010, o economista Kenneth Rogo�, ex-economista-</p><p>chefe do Fundo Monetário Internacional e professor de Economia em</p><p>Harvard, escreveu uma coluna no jornal inglês �e Guardian intitulada “AI</p><p>Can Power �is Decade: As a Former Chess Player I’m Ready to Bet Arti�cial</p><p>Intelligence is About to Drive the World’s Economy Forward” (“A IA pode</p><p>impulsionar esta década: como ex-jogador de xadrez, estou pronto para apostar</p><p>que a inteligência arti�cial está prestes a impulsionar a economia mundial”).2</p><p>Esse título parecia muito otimista até para os pesquisadores da área, pois o</p><p>histórico da área de inteligência arti�cial favorecia certa moderação mesmo</p><p>para os pesquisadores mais con�antes. Com efeito, após grandes promessas</p><p>feitas por pesquisadores nas décadas de 1950 e 1960, a área de inteligência</p><p>arti�cial sofreu um enorme re�uxo de �nanciamento e interesse na década de</p><p>1970, sobretudo por ter recebido críticas acerca da disparidade entre promessas</p><p>e resultados. É famoso o conjunto de predições feitas por Herbert Simon e</p><p>Allen Newell, dois dos maiores pesquisadores da história da inteligência</p><p>arti�cial, em 1957: por exemplo, predições otimistas sobre computadores</p><p>como campeões de xadrez e compositores de música em um período de 10</p><p>anos.3 Um conhecido relatório produzido em 1972 para o conselho de pesquisa</p><p>britânico (British Science Research Council), usualmente conhecido como</p><p>Lighthill Report, apresenta a reação a essas promessas, criticando a pesquisa em</p><p>inteligência arti�cial e especulando se a área seria viável no longo prazo.</p><p>Opiniões negativas sobre inteligência arti�cial se acumularam durante a década</p><p>de 1970. O entusiasmo retornou durante a década de 1980, com a chegada dos</p><p>chamados sistemas especialistas, que procuravam reproduzir regras usadas por</p><p>especialistas em domínios práticos. E o entusiasmo re�uiu de novo na década</p><p>de 1990. Durante aquela década, da qual participei principalmente como</p><p>estudante de mestrado na Universidade de São Paulo e estudante de doutorado</p><p>na Universidade Carnegie Mellon (Estados Unidos), muitas novidades</p><p>apareceram, mas boa parte delas tinha limitado efeito prático. Até mesmo</p><p>carros autônomos foram construídos, mas não havia ainda a segurança de</p><p>colocá-los em uso. Havia sistemas de entendimento e geração de fala, de</p><p>compreensão de imagens, de suporte a decisões e planejamento; a maioria</p><p>deixava a audiência surpresa e animada, mas não conseguia de fato enfrentar</p><p>toda a complexidade do mundo real.</p><p>Após tantas idas e vindas, a década de 2010 chegou com a combinação certa</p><p>de poder computacional, acesso a dados, e técnicas de extração automática de</p><p>padrões em dados. Um momento particularmente importante foi a vitória de</p><p>redes neurais arti�ciais “profundas” em uma competição de sistemas</p><p>automáticos de interpretação de imagens, em 2012. Redes neurais arti�ciais</p><p>procuram reproduzir computacionalmente alguns aspectos do sistema nervoso</p><p>humano, combinando unidades de processamento simples (os “neurônios</p><p>arti�ciais”) em camadas que se ligam de forma inspirada nas sinapses do</p><p>cérebro humano.</p><p>A capacidade de redes neurais arti�ciais de resolver problemas práticos foi</p><p>muito questionada durante os anos 2000, quando alternativas mais e�cientes e</p><p>precisas foram desenvolvidas. A partir de 2012 isso mudou, com o uso de redes</p><p>arti�ciais com muitas camadas – daí o adjetivo “profundas”. A tecnologia de</p><p>redes neurais arti�ciais profundas avançou tanto que hoje muitos confundem o</p><p>seu uso, muitas vezes rotulado de “aprendizado profundo” (deep learning), com</p><p>toda a área de inteligência arti�cial. O aprendizado profundo representa uma</p><p>das principais partes da subárea preocupada com aprendizado de máquina, em</p><p>que se procura ensinar o computador a realizar tarefas a partir de dados, de</p><p>instruções, de textos.</p><p>Mas note que a busca por inteligência arti�cial depende de avanços não só</p><p>na capacidade de extrair padrões de grandes massas de dados, mas também na</p><p>capacidade de receber instruções complexas no tempo. Nós, humanos, não</p><p>aprendemos apenas observando grandes massas de dados. Nós lemos livros e</p><p>manuais; nós vamos à escola para assistir a aulas e absorver os conhecimentos</p><p>dos mais experientes.</p><p>E, além de aprendizado de máquina, técnicas de planejamento automático e</p><p>de representação de conhecimento são fundamentais na construção de</p><p>inteligências arti�ciais. Enquanto décadas passadas viram grande ênfase em</p><p>métodos baseados na representação de conhecimento a partir da venerável</p><p>teoria de lógica, que remonta a Aristóteles, hoje se procura combinar</p><p>a�rmações, argumentos, fatos e probabilidades de forma �exível e pragmática.</p><p>O progresso tem sido surpreendente em todos esses tópicos, embora</p><p>computadores ainda estejam distantes da habilidade humana de argumentar, de</p><p>negociar, de interagir com interlocutores, de… uma grande lista de atividades.</p><p>Para quem trabalha na área de inteligência arti�cial, é evidente que estamos</p><p>ainda muito longe dos cenários de �cção cientí�ca – tanto os cenários utópicos</p><p>quanto os distópicos.</p><p>Diante dessa ebulição tecnológica, a sociedade se debate entre otimismos e</p><p>pessimismos. Por um lado, a inteligência arti�cial pode mudar nossa vida de</p><p>forma substancial, aumentando nossa produtividade e oferecendo suporte e</p><p>auxílio sempre que necessário. O efeito de alguns avanços é claro: por exemplo,</p><p>poderemos ter cadeias logísticas mais e�cientes ao usarmos técnicas de</p><p>planejamento automático; com isso, poderemos economizar energia e ter mais</p><p>produtos à disposição de compradores interessados. Outros avanços são mais</p><p>sutis: poderemos ter música ambiente personalizada, criada arti�cialmente,</p><p>atendendo a nossos humores em todos os instantes. Quanto vale esse conforto?</p><p>A sociedade também se vê diante de variados receios. Alguns ainda</p><p>pertencem à �cção cientí�ca: estarão os robôs contra nós em um futuro</p><p>distante? Mas outros receios são concretos. Poderá um sistema computacional</p><p>autônomo tomar decisões que afetem a vida de seres humanos? Que regras</p><p>devem ser seguidas por agentes arti�ciais? Em caso de falha, quem é o culpado?</p><p>Além disso, como controlar um sistema computacional para evitar invasões de</p><p>privacidade? E como garantir que o ser humano mantenha o controle</p><p>democrático sobre sua sociedade, não perdendo esse controle para entidades</p><p>arti�ciais de difícil acesso? Como lidar com a perda de postos de trabalho à</p><p>medida que algumas tarefas sejam substituídas via automação? E como tudo</p><p>isso afeta nossa identidade humana?</p><p>Todas essas questões merecem debate. Por um lado, os medos precisam ser</p><p>entendidos e dissipados, quando for o caso, ou discutidos e remediados. Por</p><p>outro lado, o potencial da tecnologia</p><p>Estudos de consultorias e instituições internacionais sobre o mercado de</p><p>trabalho divergem quanto aos números, porque têm base em metodologias</p><p>distintas, contudo, convergem sobre a tendência: eliminação crescente de</p><p>funções, ameaça aos empregos.</p><p>No Brasil temos dois estudos: da Universidade de Brasília, que indica que</p><p>54% das funções no Brasil têm probabilidade de ser eliminadas até 2026; e do</p><p>Instituto de Pesquisa Econômica Aplicada (Ipea), órgão ligado ao Ministério</p><p>do Planejamento, que indica que mais de 50% das funções serão eliminadas até</p><p>2050, ou seja, 35 milhões de trabalhadores formais correm risco de perder seus</p><p>empregos para a automação. Por outro lado, com 13% de taxa de desemprego,</p><p>as empresas enfrentam di�culdade de preencher vagas em aberto por falta de</p><p>candidatos quali�cados.</p><p>As projeções são de um mercado de trabalho cada vez mais desigual, com as</p><p>funções de alto desempenho extremamente lucrativas, e as demais com perdas</p><p>salariais, ou eliminadas pela automação. O grupo de elite norte-americano, por</p><p>exemplo, quase dobrou sua participação na renda nacional entre 1980-2016;</p><p>em 2017, o 1% mais rico dos norte-americanos equivalia a quase o dobro de</p><p>riqueza dos 90% mais pobres.</p><p>A Uber ilustra bem o que está por vir. O número de motoristas cadastrados</p><p>cresceu em 50% entre 2016-2018 (de 50 milhões para 100 milhões). No Brasil</p><p>são cerca de 600 mil motoristas; o pleno sucesso de seu projeto de carro</p><p>autônomo, em teste em várias cidades, gerará um lucro extraordinário aos seus</p><p>acionistas e uma perda total para os seus motoristas. A automação inteligente</p><p>vai invadir o varejo, as transportadoras, os bancos e uma in�nidade de funções</p><p>em quase todos os setores, atingindo fortemente a classe média.</p><p>Ao contrário de processos associados a tecnologias disruptivas anteriores, os</p><p>novos modelos de negócio não são intensivos em mão de obra. Na automação</p><p>das fábricas no século XX, por exemplo, os trabalhadores dispensados tinham</p><p>como alternativa o setor de serviços, em plena expansão. A Economia de</p><p>Dados não oferece muitas alternativas. A montadora GM demorou 70 anos</p><p>para gerar um lucro de 11 bilhões de dólares com 840 mil funcionários, e o</p><p>Google precisou de meros 14 anos para lucrar 14 bilhões de dólares com 38</p><p>mil funcionários. O exemplo talvez mais emblemático: em 2012 a Kodak abriu</p><p>falência com 19 mil funcionários, tendo chegado a empregar 145 mil; no</p><p>mesmo ano, o Instagram foi comprado pelo Facebook por 1 bilhão de dólares</p><p>com apenas 13 funcionários.</p><p>Na competição entre o trabalhador humano e o “trabalhador-máquina”, os</p><p>humanos estão em desvantagem: a) a manutenção é mais barata, as máquinas</p><p>trabalham quase que em moto-contínuo (sem descanso, sem férias, sem</p><p>doenças), com um custo médio menor por hora trabalhada (49 dólares na</p><p>Alemanha e 36 nos Estados Unidos, contra 4 dólares do “robô”); e b) as</p><p>máquinas inteligentes se aperfeiçoam automática e continuamente, e o custo de</p><p>reproduzi-las é signi�cativamente menor do que o custo de treinar pro�ssionais</p><p>humanos para as mesmas funções.</p><p>As transformações no mercado de trabalho não advêm exclusivamente da</p><p>automação inteligente, mas igualmente de novas con�gurações como home</p><p>o�ce e contratação por projeto (“pejotização”). Outro fator é a categoria</p><p>chamada gig economy – plataformas e aplicativos online, freelancers; os</p><p>aplicativos Uber, iFood, Rappi e 99 são hoje o maior empregador do país, com</p><p>cerca de 3,8 milhões de trabalhadores, representando 17% dos 23,8 milhões de</p><p>trabalhadores autônomos, segundo o Instituto Brasileiro de Geogra�a e</p><p>Estatística (IBGE). A tendência é as empresas reduzirem o número de</p><p>empregados �xos, regidos pelas leis trabalhistas como a CLT, com redução de</p><p>custos e ganhos de e�ciência, inclusive na qualidade do serviço prestado.</p><p>As pro�ssões-chave no mercado de trabalho dos próximos anos, segundo as</p><p>consultorias especializadas, são analista de dados, cientista de dados,</p><p>desenvolvedor de software e aplicativos, especialista em comércio eletrônico,</p><p>especialista em mídias sociais, pro�ssional de IA com ênfase em aprendizado de</p><p>máquina, especialista em big data, analista de segurança da informação e</p><p>engenheiro de robótica. Em paralelo, existe um grande potencial em funções</p><p>centradas em habilidades humanas, como atendimento ao cliente, vendas e</p><p>marketing, treinamento e desenvolvimento de pessoas e cultura, gestão da</p><p>inovação e desenvolvimento organizacional. Até 2030, mais de um terço das</p><p>habilidades essenciais para a maioria das ocupações será composto por</p><p>habilidades que ainda não são cruciais para o trabalho atual.</p><p>Para não perder a relevância econômica e social no século XXI, o desa�o é</p><p>identi�car quais as habilidades necessárias para que um robô não roube seu</p><p>emprego, e se capacitar. Lição de casa: liste todas as funções/tarefas</p><p>desempenhadas no seu trabalho, agrupe em colunas as mais suscetíveis à</p><p>automação e as que requerem habilidades ainda exclusivamente humanas e</p><p>prepare-se para desempenhar melhor estas últimas.</p><p>Inteligência arti�cial pode democratizar o acesso à</p><p>Justiça?</p><p>13.12.2019</p><p>Em 2015, aos 19 anos, o programador Joshua Browder criou um sistema de</p><p>inteligência arti�cial do tipo chatbot que, a partir do diálogo com o usuário,</p><p>orienta sobre a melhor forma de contestar multas de estacionamento, gerando</p><p>automaticamente os documentos legais apropriados. Com base na tecnologia</p><p>Watson-IBM, o DoNotPay – disponível em Nova York e no Reino Unido – é</p><p>um serviço jurídico pro bono (totalmente gratuito). De 2015 a 2017, foram</p><p>atendidos 250 mil casos, anulando cerca de 4 milhões de dólares em multas.</p><p>Trata-se de mera ilustração da transformação em curso na advocacia.</p><p>Para dar conta do volume de documentos envolvidos nos processos</p><p>jurídicos, em 2012, surgiu a technology-assisted review (TAR), considerada a</p><p>primeira aplicação de IA na prática legal. Sua função é organizar, analisar e</p><p>pesquisar conjuntos de dados com e�ciência 50 vezes maior que a dos métodos</p><p>tradicionais, em rapidez e precisão, reduzindo custos e tempo de revisão da</p><p>electronically stored information (ESI).</p><p>O primeiro “robô-advogado” foi o Ross. Convergindo tecnologias de</p><p>pesquisa online com processamento de linguagem natural da Watson-IBM,</p><p>Ross lê mais de um milhão de páginas legais por minuto. Projetado por uma</p><p>equipe diversi�cada de pro�ssionais, seu propósito é “mudar o mundo,</p><p>oferecendo assistência prática à grande maioria das pessoas em risco legal que</p><p>não têm acesso à justiça”.32 No momento, está disponível somente nos Estados</p><p>Unidos (em breve, globalmente).</p><p>Como forma de testar os sistemas inteligentes, em 2018, 20 experientes</p><p>advogados norte-americanos (com passagem pelo banco Goldman Sachs, pela</p><p>Cisco e por grandes escritórios de advocacia) foram confrontados com o</p><p>algoritmo de inteligência arti�cial LawGeex. O desa�o era rever cinco non-</p><p>disclosure agreements (NDAs, acordos de con�dencialidade), identi�cando os</p><p>riscos em cada contrato legal. O sistema de IA alcançou 94% de precisão versus</p><p>85% dos advogados (na média: 94% para advogados com maior desempenho,</p><p>e 67% para advogados com menor desempenho), com uma diferença de tempo</p><p>de 26 segundos para a IA contra 92 minutos para os advogados!</p><p>Esses avanços, como nos demais setores da economia, trazem enormes</p><p>benefícios à sociedade, pela redução de custos e pelo aumento de e�ciência</p><p>(maior precisão, menor tempo); ademais, democratizam o acesso à defesa legal</p><p>de um contingente majoritário da população que não tem condições de arcar</p><p>com os custos da advocacia tradicional.</p><p>Simultaneamente, contudo, esses mesmos avanços têm efeitos negativos</p><p>sobre o mercado de trabalho; segundo a consultoria McKinsey, 23% do</p><p>trabalho atual do advogado médio já pode ser substituído por sistemas</p><p>inteligentes. Esse cenário afeta particularmente os jovens advogados: a</p><p>automação inteligente tende a eliminar as tarefas rotineiras na prática legal,</p><p>funções em geral exercidas por jovens associados, ou seja, os candidatos ao</p><p>primeiro</p><p>emprego. No Brasil o cenário é mais preocupante: são cerca de 1,2</p><p>milhão de advogados no país, 1.210 cursos de direito e 900 mil estudantes (no</p><p>resto do mundo são 1.100 cursos de direito, menos do que o total do país).</p><p>Indicadores das economias desenvolvidas dão uma noção do que está por</p><p>vir: segundo a Deloitte, companhia de auditoria e consultoria empresarial, 100</p><p>mil empregos na área advogatícia serão eliminados no Reino Unido até 2025; o</p><p>banco norte-americano JPM automatizou 360 mil horas de trabalho de</p><p>advogado no último ano; mais de 36% dos escritórios de advocacia norte-</p><p>americanos, e mais de 90% dos grandes escritórios de advocacia do mundo</p><p>(escritórios com mais de mil advogados), estão usando ativamente a</p><p>inteligência arti�cial. No Brasil, estamos nos primórdios: de acordo com</p><p>Alexandre Zavaglia, presidente da New Law School, que oferece cursos sobre as</p><p>transformações tecnológicas no universo jurídico, apenas de 2 a 4% do meio</p><p>jurídico está usando IA.</p><p>No campo da ética, emergem inúmeras questões a serem equacionadas:</p><p>como garantir a precisão, a legalidade e a justiça das decisões de inteligência</p><p>arti�cial? Os advogados serão acusados de negligência por con�arem em</p><p>sistemas inteligentes que cometem erros? Ou, ao contrário, serão acusados de</p><p>negligência se não �zerem uso de IA que exceda as capacidades humanas em</p><p>certas tarefas?</p><p>O futuro da advocacia foi um dos temas do Primeiro Seminário Novas</p><p>Tecnologias e Sistemas de Inteligência Arti�cial, promovido pelo Tribunal</p><p>Regional Federal da 3a Região, em 6 de dezembro. Os palestrantes –</p><p>desembargadores, juízes, conselheiros, auditores e acadêmicos – se dividiram</p><p>entre alertar sobre a iminente ameaça de desaparecimento da pro�ssão do</p><p>advogado até a extinção da própria Justiça como a conhecemos, e o</p><p>reconhecimento da inexorabilidade da adoção das tecnologias de inteligência</p><p>arti�cial (“porque é o que as pessoas querem”). A unanimidade foi sobre a</p><p>premência de atualizar os pro�ssionais do setor, advogados e juízes, e adequar</p><p>as grades curriculares dos cursos de Direito ao novo mercado. Um ponto de</p><p>partida é acompanhar o site Arti�cial Lawyer (www.arti�ciallawyer.com).</p><p>Desigualdade crescente no mercado de trabalho</p><p>13.3.2020</p><p>O Brasil tem atualmente 250 mil vagas em aberto, ou seja, ofertas de</p><p>emprego sem candidatos quali�cados, e esse número tende a aumentar nos</p><p>próximos anos, segundo a Associação das Empresas de Tecnologia da</p><p>Informação e Comunicacão (Brasscom). Cinco em cada 10 empresas</p><p>industriais brasileiras enfrentam di�culdades com a falta de trabalhadores</p><p>quali�cados, de acordo com a Confederação Nacional da Indústria (CNI).</p><p>Por outro lado, segundo o IBGE, a taxa de desemprego bateu 11% em</p><p>dezembro de 2019 (11,6 milhões de brasileiros, cerca de 15% da população</p><p>economicamente ativa), índice subestimado, porque não leva em conta os que</p><p>desistiram de procurar emprego, os que estão empreendendo para subsistir –</p><p>50% do total dos empreendedores faturam aproximadamente mil reais por</p><p>mês, e apenas 1% dos empreendedores iniciais e 3,2% dos estabelecidos</p><p>faturam acima de 5 mil reais por mês (dados do Global Entrepreneurship</p><p>Monitor, GEM, Brasil/2017) –, sem falar nos 41,1% do total da população</p><p>ocupada que trabalham na informalidade (sem carteira assinada). É fato que as</p><p>novas tecnologias estão gerando, simultaneamente, desemprego e oferta de</p><p>vagas em aberto, além de desequilíbrio salarial: salários crescentes para funções</p><p>quali�cadas e decrescentes para as demais funções.</p><p>A combinação entre os avanços da inteligência arti�cial e da robótica, se por</p><p>um lado acelera a produtividade e o crescimento, com a redução de custos e o</p><p>aumento da e�ciência, por outro tem o potencial de gerar desemprego e</p><p>desigualdade (produz efeito negativo sobre a renda ao aumentar a competição</p><p>pelos empregos remanescentes). Como alerta a Organização Internacional do</p><p>Trabalho (OIT), no curto/médio prazo as funções mais ameaçadas são as de</p><p>menor quali�cação, em geral, exercidas pela população de baixa e média renda</p><p>(proporcionalmente em maior número).</p><p>A consultoria McKinsey Digital, no artigo �e Impact of Automation on</p><p>Employment for Women and Minorities (2019), atesta a vulnerabilidade, por</p><p>exemplo, dos trabalhadores afro-americanos concentrados nas atividades mais</p><p>propensas à automação: super-representados na categoria motoristas de</p><p>caminhão, com 80% das horas de trabalho ameaçadas pelos caminhões</p><p>autônomos, e sub-representados na categoria desenvolvedores de software, com</p><p>15% de probabilidade de automação.</p><p>O aplicativo Chronicle, do New York Times, mostra que, entre 2009 e 2016,</p><p>multiplicou-se por 10 a frequência da palavra “desigualdade” em suas matérias,</p><p>atingindo a proporção de uma a cada 73 palavras (não há dados mais recentes);</p><p>supondo uma tendência geral, pode ser um indicador da crescente visibilidade</p><p>do tema na mídia. Os Estados Unidos, país das estatísticas, têm atualmente a</p><p>menor taxa de desemprego em 50 anos, 3,5% da população, mas, ao mesmo</p><p>tempo, aumentou a desigualdade: a elite norte-americana quase dobrou sua</p><p>participação na renda nacional entre 1980 e 2016; em 2017, o 1% mais rico</p><p>dos norte-americanos equivalia a quase o dobro de riqueza dos 90% mais</p><p>pobres.</p><p>O desequilíbrio do mercado de trabalho deve-se, em parte, ao fato de que as</p><p>novas funções não estão substituindo proporcionalmente as funções</p><p>eliminadas, basicamente por duas razões: primeiramente porque é maior o</p><p>número de funções repetitivas e previsíveis, foco da substituição por máquinas</p><p>inteligentes, em comparação com as novas funções ofertadas; o estímulo à</p><p>transformação digital é reduzir custos e aumentar a e�ciência, processos</p><p>intensivos em tecnologia (e não em mão de obra). Em segundo lugar porque é</p><p>um equívoco considerar as habilidades listadas pelos relatórios de consultorias,</p><p>e enfatizadas por muitos “especialistas” – raciocínio lógico, empatia,</p><p>pensamento crítico, compreensão de leitura, argumentação, comunicação clara</p><p>e persuasiva, discernimento, bom senso, capacidade de tomar decisão,</p><p>aprendizagem ativa, �uência de ideias, originalidade –, como inerentes aos</p><p>seres humanos. Elas são potencialmente habilidades humanas, representam</p><p>potencial vantagem comparativa dos trabalhadores humanos. Para �orescerem,</p><p>contudo, dependem de condições apropriadas, e essas condições apropriadas</p><p>não estão disponíveis para a maioria da população nos países desenvolvidos e,</p><p>particularmente, nos países em desenvolvimento. Responda sinceramente: você</p><p>possui todas essas “habilidades humanas”? Quantas pessoas você conhece que</p><p>as possuem?</p><p>Os relatórios internacionais, frequentemente citados como fontes, devem ser</p><p>lidos com cautela. O relatório de janeiro de 2020, por exemplo, do Fórum</p><p>Econômico Mundial (WEF) lista várias pro�ssões como novas, quando apenas</p><p>receberam uma nova nomenclatura, e outras requerem as “famosas habilidades</p><p>humanas”. O relatório projeta que até 2022, 37% das oportunidades estarão na</p><p>Economia do Cuidado, ou seja, em parte refere-se aos “cuidadores”: a função</p><p>que mais cresce atualmente nos Estados Unidos (longevidade da população,</p><p>mudança na estrutura familiar, entre outros fatores), mas com curva declinante</p><p>de remuneração.</p><p>As demais funções com altas taxas de crescimento incluem especialistas em</p><p>inteligência arti�cial, cientistas de dados, engenheiros de computação, analista</p><p>de dados; com baixas taxas de crescimento incluem técnicos e assistentes em</p><p>geral. Os autores do relatório do WEF, inclusive, relativizam as próprias</p><p>projeções: “O crescimento e a escala absoluta de várias pro�ssões serão</p><p>determinadas de maneira distinta pelas atuais escolhas e investimentos feitos</p><p>pelos governos”.</p><p>No Brasil, a precariedade do ensino fundamental, perpetuada na baixa</p><p>qualidade da maioria dos cursos superiores, é uma barreira à formação de</p><p>pro�ssionais adequados ao mercado de trabalho do século XXI. Abstraindo as</p><p>exceções, a mobilidade no emprego é prerrogativa da elite, com acesso a</p><p>formação, e não apenas a treinamento. Ou seja, quem “se salva” são os</p><p>pro�ssionais</p><p>de alta quali�cação, que representam menos de 1% da população</p><p>brasileira. Segundo estudo de pesquisadores do Fundo Monetário Internacional</p><p>(FMI), o grau de preocupação com a ameaça tecnológica aos empregos, não</p><p>por acaso, está correlacionada aos níveis de educação e ao acesso à</p><p>informação.33</p><p>Até que provem o contrário com dados consistentes, o impacto no mercado</p><p>de trabalho é um dos efeitos sociais mais perversos da adoção da inteligência</p><p>arti�cial. As empresas de tecnologia negam as evidências temerosas de serem</p><p>responsabilizadas pelas externalidades negativas, e os relatórios de consultorias e</p><p>organismos internacionais, se lidos atentamente, não são conclusivos.</p><p>A construção de um futuro promissor depende de política pública, que por</p><p>sua vez depende de um Estado competente e saudável, com capacidade de</p><p>promover ações efetivas e coordenadas em larga escala, de formar ecossistemas</p><p>com o setor público, as universidades e centros de pesquisa, e com os</p><p>investidores (e não apenas criar arcabouço regulatório). Sem política pública,</p><p>di�cilmente o Brasil entrará efetivamente no século XXI.</p><p>Como evitar a classe dos “inempregáveis”?</p><p>23.10.2020</p><p>A série de televisão Os Jetsons, criada pelo estúdio Hanna-Barbera em 1962 e</p><p>exibida no Brasil em 1963 pela extinta TV Excelsior, ao retratar o cotidiano de</p><p>uma família de classe média no ano 2062, introduziu no imaginário popular a</p><p>ideia �ccional do futuro: carros voadores, automação, robôs domésticos,</p><p>cidades suspensas. O historiador Michael Bess, no livro Our Grandchildren</p><p>Redesigned (Nossos netos redesenhados), pondera que a série reproduz um</p><p>equívoco recorrente: a tendência de imaginar que as tecnologias evoluirão</p><p>radicalmente, enquanto nós, humanos, permaneceremos fundamentalmente os</p><p>mesmos.34</p><p>Sucessos como as franquias Star Wars e Star Trek, e �lmes de �cção cientí�ca</p><p>como Blade Runner, de Ridley Scott, e AI, de Steven Spielberg, retratam</p><p>espécies alienígenas e robôs inteligentes contracenando com humanos iguais;</p><p>quando modi�cados, como os personagens de �lmes como A mulher biônica e</p><p>Homem-Aranha, são por acidentes. No campo da �cção cientí�ca, a única</p><p>aparente exceção são os seres humanos geneticamente aprimorados da obra de</p><p>Aldous Huxley Admirável mundo novo (1932).</p><p>Difícil prever como seremos no futuro, mas é fato que os corpos e mentes</p><p>humanos já estão sofrendo intervenções causadas por drogas medicinais e</p><p>nanotecnologias. Contudo, enquanto aguardamos a reengenharia radical do</p><p>Homo sapiens – reescrita dos códigos genéticos, alteração do equilíbrio</p><p>bioquímico, fusão com dispositivos não orgânicos, conexão direta entre</p><p>cérebros e máquinas –, o desa�o é evitar cair na classe dos “inempregáveis”,</p><p>como alerta Yuval Harari.35</p><p>O cientista da computação e investidor Kai-Fu Lee observa que as</p><p>revoluções industriais anteriores desquali�caram o trabalho (deskilling).36 As</p><p>linhas de montagem das fábricas transformaram as tarefas que eram feitas por</p><p>pessoas quali�cadas, sapateiro-artesão por exemplo, em linhas de montagem</p><p>com trabalhadores com baixa quali�cação (nonskilled labor), em que cada um</p><p>adiciona uma diminuta parte ao todo, cenário retratado com rigor por Joshua</p><p>B. Freeman no livro Mastodontes.37 A revolução 4.0, ao contrário, requer o</p><p>chamado upskilling, ou reskilling, ou seja, demanda a quali�cação do trabalho</p><p>para desempenhar tarefas mais complexas e multidimensionais (as tarefas</p><p>rotineiras, repetitivas, previsíveis aos poucos estão sendo desempenhadas pela</p><p>automação inteligente, ou seja, tecnologias de inteligência arti�cial).</p><p>Paradoxalmente, num mundo dominado pela tecnologia, as ciências</p><p>humanas têm papel de destaque, na medida em que o pro�ssional do futuro</p><p>vai lidar com questões que exigem, além de conhecimentos técnicos,</p><p>habilidades de lógica, análise crítica, empatia, comunicação e design. Scott</p><p>Hartley defende a parceria entre as ciências exatas e as humanas, em que as</p><p>primeiras focam no “como fazer” da revolução tecnológica, e as segundas, no</p><p>“por quê”, “para quê” e “quando”.38 Vale atentar, e tomar como referência, que</p><p>os empreendedores do Vale do Silício, em geral, têm formação em ciências</p><p>humanas e sociais e reconhecem que essas habilidades foram determinantes</p><p>para o sucesso de seus projetos. Além disso, parte deles matriculam seus �lhos</p><p>em escolas “humanistas”.</p><p>A pergunta de um milhão de dólares é quais pro�ssões serão eliminadas e</p><p>quais serão as pro�ssões do futuro. Previsões sobre o mercado de trabalho</p><p>divergem por conta de metodologias distintas, mas convergem sobre a</p><p>tendência: em sua maioria, potencial desemprego massivo. Estudo do Fórum</p><p>Econômico Mundial (WEF), �e Future of Jobs Report 2020, em parceria com</p><p>LinkedIn, Coursera, FutureFit AI e ADP, constata que a automação está</p><p>aumentando mais rapidamente do que o previsto.39 Com a covid-19, cerca de</p><p>84% dos executivos consultados aceleraram seus planos de digitalização e</p><p>adoção de novas tecnologias. As lacunas de competências continuam a ser altas;</p><p>em média, as empresas estimam que cerca de 50% dos trabalhadores precisarão</p><p>de requali�cação. “Na ausência de esforços proativos, a desigualdade</p><p>provavelmente será exacerbada pelo duplo impacto da tecnologia e da recessão</p><p>pandêmica”, vaticina o estudo.</p><p>O WEF, sensível à necessidade de preparar o futuro, lançou a plataforma</p><p>�e Reskilling Revolution, que convida líderes e organizações a contribuir em</p><p>torno de cinco eixos. O propósito é quali�car e requali�car a força de trabalho,</p><p>fornecendo às empresas e economias mão de obra adequada para exercer as</p><p>novas funções. Vários países e empresas já aderiram, parcerias foram �rmadas,</p><p>entre elas com a empresa de tecnologia educacional norte-americana Coursera,</p><p>o LinkedIn, a Salesforce e a PwC.</p><p>A atuação do WEF é respaldada localmente pelas políticas públicas dos</p><p>países, particularmente os países líderes em transformação digital que tratam a</p><p>educação como estratégia para o desenvolvimento econômico. Nos Estados</p><p>Unidos, por exemplo, o governo convocou o setor privado a se comprometer</p><p>com a quali�cação e requali�cação de sua força de trabalho por meio do Pledge</p><p>to America’s Workers: mais de 415 empresas do setor privado já se</p><p>comprometeram com 14,5 milhões de oportunidades de aprimoramento de</p><p>carreira nos próximos cinco anos. Na França, o aplicativo móvel Mon Compte</p><p>Formation é dedicado a integrar a formação pro�ssional e a aprendizagem ao</p><p>longo da vida. “Esses esforços combinados do setor privado e dos governos</p><p>podem catalisar melhor educação, habilidades e empregos para apoiar um</p><p>bilhão de pessoas e servir como exemplos globais”, pondera o WEF.</p><p>No Brasil não temos política pública nem ecossistema favorável, a</p><p>perspectiva é individual, ou seja, cada um assume o protagonismo de sua</p><p>própria carreira. A boa notícia é que informações e conhecimento estão</p><p>disponíveis. Há oferta de cursos variados, presenciais e online, alguns a custos</p><p>razoáveis e outros gratuitos. Proliferam publicações na mídia especializada e</p><p>nos grandes veículos de comunicação. Com a covid-19, as lives invadiram</p><p>nosso cotidiano. Gradativamente, junto à familiaridade com os temas, virá a</p><p>capacidade de discernir os bons conteúdos (curadoria). O estudo do WEF</p><p>indicou um aumento de quatro vezes no número de indivíduos que procuram</p><p>aprendizagem online por iniciativa própria.</p><p>Há dois conceitos-chave a serem observados: um é o lifelong learning,</p><p>aprendizagem ao longo da vida, fundamental para acompanhar a aceleração</p><p>atual, requerendo atualização contínua que extrapola o ensino formal; outro é a</p><p>autorregulação da aprendizagem, em que cada um estrutura, monitora e avalia</p><p>seu próprio aprendizado, ampliando sua capacidade de retenção de conteúdo e</p><p>engajamento. O desa�o é montar um programa de aprendizado e�ciente. O</p><p>futuro será de quem “aprende a aprender”.</p><p>Para não perder a relevância econômica e social no século XXI, a</p><p>recomendação é cada um identi�car quais as habilidades necessárias para que o</p><p>“robô” não roube seu emprego, e se capacitar. Lição</p><p>de casa (sugerida em</p><p>coluna anterior): liste todas as funções e tarefas desempenhadas no seu</p><p>trabalho, agrupe em colunas as mais suscetíveis à automação e as que requerem</p><p>habilidades ainda exclusivamente humanas, e prepare-se para desempenhar</p><p>melhor estas últimas. Não é uma boa apostar na renda mínima (UBI, universal</p><p>basic income); se e quando ela for concretizada, garantirá apenas a</p><p>sobrevivência.</p><p>Inteligência arti�cial no jornalismo: ameaça ou</p><p>oportunidade?</p><p>6.8.2021</p><p>Em maio de 2020, o jornal �e Guardian anunciou que o site do MSN, da</p><p>Microsoft, acessado diariamente por milhões de britânicos, havia substituído</p><p>parte de seus jornalistas por sistemas de inteligência arti�cial. Longe de ser um</p><p>fato isolado, trata-se de uma tendência do ecossistema de mídia, como indica o</p><p>relatório Journalism, Media, and Technology Trends and Predictions 2021</p><p>(Tendências e previsões para o jornalismo, a mídia e a tecnologia em 2021),</p><p>publicação do Instituto Reuters e da Universidade de Oxford.40</p><p>Segundo o relatório, 69% dos entrevistados destacaram o protagonismo da</p><p>inteligência arti�cial nos próximos anos – 18% apontaram a conectividade 5G</p><p>– em curadoria, produção e distribuição de conteúdo. Para atender a</p><p>diversidade de formatos de consumo de notícias, o relatório sinaliza a</p><p>necessidade de modelos híbridos, que combinem mídia e tecnologias digitais,</p><p>denominados de “media tech” (media technology). O termo se aplica a qualquer</p><p>dispositivo ou tecnologia para criar, produzir, distribuir e gerenciar mídia, tais</p><p>como rede de distribuição de conteúdo, mídia interativa, convergência digital,</p><p>realidade aumentada, realidade mista, infraestrutura de mídia, entre outros.</p><p>O termo “media tech”, inclusive, foi utilizado pelo presidente executivo do</p><p>Grupo Globo, Jorge Nóbrega, para de�nir o novo modelo de negócio do grupo</p><p>após reestruturação. A disputa por publicidade com as big techs, em parte, tem</p><p>afetado os resultados �nanceiros dos grupos de mídia tradicionais: o lucro da</p><p>Globo, por exemplo, passou de 2,7 bilhões de reais, em 2010, para 0,1 bilhão,</p><p>em 2020. Em contrapartida, a receita publicitária da Amazon cresceu 83% no</p><p>segundo trimestre de 2021, comparativamente ao mesmo período do ano</p><p>anterior, alavancada pela publicidade online de marcas e pequenos negócios no</p><p>marketplace, nas plataformas de vídeo (Fire TV, IMDb TV e Twitch), na</p><p>plataforma de streaming de games e nos vídeos ao vivo.41 Em 2020, do</p><p>investimento total em publicidade digital nos Estados Unidos, 63,5% foi</p><p>direcionado para as três grandes plataformas: 29,8% para o Google; 23,5%</p><p>para o Facebook; 10,2% para a Amazon. O faturamento em anúncios online</p><p>do Google foi de 146,8 bilhões de dólares, e do Facebook, de 84,1 bilhões de</p><p>dólares.</p><p>As organizações de mídia, gradativamente, estão se apropriando da</p><p>inteligência arti�cial para mudar a maneira como as notícias são geradas,</p><p>produzidas, publicadas e compartilhadas. Processo ainda embrionário, num</p><p>futuro próximo a expectativa é que os sistemas inteligentes serão responsáveis</p><p>por gerar parte dos textos. No momento, a função principal dos algoritmos de</p><p>IA é “varrer” e classi�car publicações em vários canais (mídia, redes sociais,</p><p>relatórios privados e públicos, comunicados, entre outros), ou seja, acelerar a</p><p>pesquisa ao correlacionar, rápida e e�cientemente, grandes conjuntos de dados</p><p>por marcas semânticas e categorias (eventos, pessoas, locais, datas). A seção</p><p>“Comentários” do �e New York Times, por exemplo, é moderada por 14</p><p>jornalistas que revisam manualmente mais de 11 mil comentários diários,</p><p>tarefa em vias de ser desempenhada pelo sistema de inteligência arti�cial criado</p><p>pela Jigsaw/Alphabet, controladora do Google – reduz custos e aumenta a</p><p>e�ciência, motivações iniciais para a adoção da IA.42</p><p>Em paralelo, cresce o movimento de entrega de conteúdo personalizado</p><p>com base no per�l do leitor, movimento favorável aos anunciantes pelo</p><p>potencial aumento da taxa de conversão, e conteúdo personalizado por per�l</p><p>do jornalista: um especialista em �nanças, por exemplo, recebe links para</p><p>matérias e imagens relacionadas a esse tema (a inteligência arti�cial no papel de</p><p>“assistente” do jornalista). Nesse caso, são múltiplas as experiências: a Forbes</p><p>lançou o Bertie, sistema agregador de notícias e sugestão de conteúdo; o</p><p>Washington Post lançou o Heliograf, capaz de gerar textos a partir de dados</p><p>quantitativos, sistema já utilizado em 2016 na cobertura dos Jogos Olímpicos e</p><p>das eleições norte-americanas; a Bloomberg está usando o Cyborg para criar e</p><p>gerenciar conteúdo. As agências de notícias, como a Associated Press e a</p><p>Reuters, seguem na mesma linha.</p><p>Em 2018, a Reuters lançou o Lynx Insight, sistema de inteligência arti�cial</p><p>para analisar dados, sugerir temas para matérias e até mesmo escrever algumas</p><p>frases. Segundo Reg Chua, editor-executivo de Operações Editoriais, Dados e</p><p>Inovação da Reuters, o objetivo é maximizar o melhor das máquinas</p><p>inteligentes (identi�car padrões e fatos em grandes bases de dados) e das</p><p>equipes humanas (fazer perguntas, avaliar relevância, entender o contexto).</p><p>Provavelmente para minimizar o impacto negativo no mercado de trabalho e</p><p>na oferta de empregos, Chua cometeu o equívoco de argumentar que o Lynx</p><p>Insight seria tão revolucionário para um jornalista quanto o telefone, duas</p><p>tecnologias de natureza absolutamente distintas.43</p><p>O processo de escrita de um texto é chamado de “geração de linguagem</p><p>natural” (natural language generation, NLG), a partir da de�nição inicial do</p><p>formato desejado; o NLG já é usado, por exemplo, em relatórios de negócio,</p><p>atualizações de portfólio �nanceiro e e-mails personalizados. Os modelos de</p><p>NLG disponíveis são o Quill, da Narrative Science, Amazon Polly, WordSmith,</p><p>da Automated Insights, e Google Text-to-Speech; algumas organizações</p><p>criaram internamente seus modelos, como o já citado Heliograf, do Washington</p><p>Post. A vantagem, além de lidar com grandes volumes de dados, é a capacidade</p><p>de produzir textos em frações do tempo de um jornalista humano. O jornal</p><p>�e New York Times, recentemente, lançou um desa�o para o leitor diferenciar</p><p>um conteúdo escrito por um humano de um conteúdo escrito por um sistema</p><p>de inteligência arti�cial.44</p><p>A conferência Arti�cial Intelligence and the Future of Journalism: Will</p><p>Arti�cial Intelligence Take Hold of the Fourth Estate? (Inteligência arti�cial e o</p><p>futuro do jornalismo: a inteligência arti�cial vai dominar o quarto poder?),</p><p>organizada, em maio 2021, pela Federação Europeia de Jornalistas (EFJ),</p><p>debateu o dilema de se a IA é uma ameaça ou uma oportunidade para o setor</p><p>de mídia. Na perspectiva do presidente da EFJ, Mogens Blicher Bjerregaard, as</p><p>questões mais urgentes a serem enfrentadas são: a adoção da IA potencializa o</p><p>risco de ampliar a lacuna entre a grande e a pequena mídia; a alfabetização dos</p><p>jornalistas em dados, enfatizando a urgência de quali�car e requali�car para as</p><p>novas habilidades; e os desa�os éticos.</p><p>As empresas de mídia estão apostando na inteligência arti�cial como meio</p><p>de oferecer experiências personalizadas e melhorar a e�ciência da produção.</p><p>Como em qualquer setor, é importante estabelecer diretrizes e arcabouços</p><p>regulatórios, ainda mais pelo papel social do jornalismo: notícia de qualidade é</p><p>do interesse de toda a sociedade.</p><p>A sustentabilidade do trabalho depende da</p><p>coexistência positiva de humanos e IA</p><p>18.3.2022</p><p>A Amazon decidiu, em 2022, dobrar o teto salarial (anual) dos funcionários</p><p>de tecnologia de 160 mil para 350 mil dólares. Segundo o comunicado</p><p>interno, a mudança visa alinhar a Amazon com as gigantes de tecnologia como</p><p>Google, Facebook, Apple e Microsoft, enfrentando a intensa competitividade</p><p>do mercado de trabalho em 2021 para reter e recrutar talentos. O movimento</p><p>da Amazon ilustra o protagonismo da tecnologia num cenário de automação</p><p>acelerada.</p><p>É cada vez mais intenso o debate público sobre o futuro do trabalho,</p><p>particularmente os efeitos das mudanças tecnológicas sobre o emprego, os</p><p>salários</p><p>e a desigualdade. Com o propósito explícito de “agregar cienti�cidade”</p><p>ao debate, o Israel Public Policy Institute (IPPI) publicou o artigo “Race</p><p>Against the Machine? �e Role of Technological Change for Employment,</p><p>Wages and Inequality”45 de autoria de Ulrich Zierahn, professor da</p><p>Universidade de Utrecht, Holanda. O ponto de partida de Zierahn é o</p><p>conceito de “Routine Replacing Technological Change” (RRTC), introduzido</p><p>pelo professor de economia do MIT David Autor.</p><p>Autor, um dos maiores especialistas em automação do trabalho, ao lançar o</p><p>conceito de RRTC em 200346 já alertava que: a) as mudanças tecnológicas</p><p>alteram as habilidades pro�ssionais; e b) a tendência é o “capital</p><p>computacional” substituir os trabalhadores na execução de tarefas manuais e</p><p>cognitivas, inclusive as mais complexas. O avanço da inteligência arti�cial (IA),</p><p>com a chamada “automação inteligente”, acentuou o processo de automação</p><p>em curso desde meados do século XX. A principal vantagem da IA sobre os</p><p>trabalhadores humanos é a sua capacidade de detectar padrões “invisíveis” em</p><p>grandes conjuntos de dados (big data), gerando previsões mais assertivas,</p><p>consequentemente, melhores decisões, além de permitir que os sistemas</p><p>“aprendam” com os dados num processo de aperfeiçoamento contínuo.</p><p>Como reconhece o Fundo Monetário Internacional (FMI),47 não há</p><p>consenso em torno da premissa de que a automação gera crescimento e</p><p>desigualdade por parte de economistas e estudiosos das novas tecnologias. O</p><p>FMI identi�ca duas perspectivas: a) os pessimistas da tecnologia que temem</p><p>uma distopia econômica de extrema desigualdade e con�ito de classes com</p><p>previsões de queda acentuada da taxa de emprego; e b) os otimistas da</p><p>tecnologia que, mesmo reconhecendo os impactos negativos da automação a</p><p>curto prazo, baseiam-se nos processos históricos anteriores de mudança</p><p>tecnológica com vetor positivo entre destruição e criação de empregos, com</p><p>aumento de salários e de renda per capita. Em qualquer cenário, mantidas as</p><p>condições atuais, a automação é positiva para o crescimento econômico e</p><p>negativa para a desigualdade. Kai-Fu Lee adverte que “o século XXI pode trazer</p><p>um novo sistema de castas, dividido em uma elite plutocrática de IA e as</p><p>massas em lutas impotentes”.48</p><p>A automação inteligente incide mais fortemente sobre os empregos de</p><p>salário médio, polarizando o trabalho entre empregos de baixa e alta renda. Em</p><p>paralelo, a substituição do trabalhador humano pelos sistemas inteligentes gera</p><p>efeito negativo sobre a renda ao aumentar a competição pelos empregos</p><p>remanescentes (redução salarial). Segundo o Bureau of Labor Statistics dos</p><p>EUA,49 por exemplo, as duas pro�ssões que mais crescem no país são os</p><p>auxiliares de saúde domiciliar e os auxiliares de cuidados pessoais, com curva</p><p>salarial decrescente.</p><p>As projeções sobre o futuro do trabalho estão permeadas de imprecisões</p><p>metodológicas e/ou interpretativas, inclusive o famoso estudo dos</p><p>pesquisadores britânicos Carl Benedikt Frey e Michael Osborne.50 O elemento</p><p>sensível em qualquer pesquisa é a metodologia, e, nesse caso, os autores</p><p>extraíram suas projeções de expectativas de especialistas sobre quais funções</p><p>poderiam ser automatizadas, desconsiderando fatores críticos que extrapolam a</p><p>tecnologia, por exemplo, mudança cultural e processual nas organizações,</p><p>capacidade de investimento, arcabouço regulatório, além da conjuntura</p><p>política.</p><p>As transformações na economia afetam diretamente o ritmo, a intensidade e</p><p>a con�guração da automação, consequentemente, o presente e o futuro do</p><p>trabalho. Dani Rodrik, professor da John F. Kennedy School of Government</p><p>da Universidade Harvard, crê que a economia global após a crise de 2008, a</p><p>pandemia da covid-19 e a guerra da Ucrânia será mais fragmentada e</p><p>regionalizada, decretando o �m da hiperglobalização.51 Por outro lado, a</p><p>sociedade hiperconectada gera um conjunto de dados extraordinários,</p><p>estimulando a proliferação de modelos de negócio baseados em dados (data-</p><p>driven business models). São múltiplos os exemplos que recomendam não</p><p>hipervalorizar, e isolar, os efeitos da tecnologia. É inexorável, contudo, que a</p><p>sustentabilidade do trabalho como o concebemos está ameaçada.</p><p>A pandemia, ao acelerar a digitalização, impactou o trabalho em duas</p><p>frentes: a) a escassez de mão de obra quali�cada – 68% dos executivos</p><p>brasileiros alegam di�culdade para encontrar pro�ssional quali�cado para</p><p>posições-chave, índice superior ao registrado em países da região, como</p><p>Argentina (40%), Costa Rica (40%) e México (38%) –; e b) a di�culdade de</p><p>os trabalhadores conseguirem uma ocupação. No Brasil, a pandemia ampliou a</p><p>desigualdade entre a educação pública e a privada, sinalizando que os jovens</p><p>menos favorecidos cheguem ao mercado de trabalho apresentando de�ciências</p><p>de formação que nem sempre as empresas estão dispostas a suprir em seus</p><p>programas de treinamento e/ou quali�cação. O relatório do Banco Mundial</p><p>“Employment in Crisis: �e Path to Better Jobs in a Post-COVID-19 Latin</p><p>America”,52 publicado em 20 de julho de 2021, prevê que a crise da covid-19</p><p>trará efeitos duradouros sobre o emprego, sendo que os trabalhadores menos</p><p>quali�cados tendem a ser mais afetados.</p><p>É praticamente consenso a necessidade de requali�car os pro�ssionais</p><p>investindo em educação. No Brasil as barreiras são tremendas: a) de acordo</p><p>com o Indicador de Analfabetismo Funcional (INAF), três a cada dez</p><p>brasileiros têm limitação para ler, interpretar textos, identi�car ironia e fazer</p><p>operações matemáticas, sendo considerados analfabetos funcionais, contingente</p><p>que representa 30% da população entre 15 e 64 anos; e b) o baixo desempenho</p><p>no Programa Internacional de Avaliação de Estudantes (PISA) da Organização</p><p>para Cooperação e Desenvolvimento Econômico (OCDE) sugere, além da</p><p>baixa qualidade do ensino, uma grande disparidade nos resultados dependendo</p><p>do contexto socioeconômico dos alunos.</p><p>Ensino de�ciente é uma barreira aos trabalhadores no uso de tecnologias</p><p>digitais, gerando, portanto, uma desigualdade digital de segundo nível que</p><p>restringe ainda mais a mobilidade dos trabalhadores, particularmente os de</p><p>baixa quali�cação. Outro agravante é que o aprendizado formal, mesmo</p><p>supondo qualidade para todos, por si só não preenche as lacunas de habilidades</p><p>associadas às novas funções. As soft skills derivam de formação (não de</p><p>treinamento) e são adquiridas em múltiplas vivências e experiências, em geral,</p><p>acessíveis apenas a um contingente restrito da população.</p><p>Visando à sustentabilidade do trabalho, as políticas públicas em parceria</p><p>com o setor privado precisam incorporar os conceitos de lifelong learning</p><p>(aprendizagem ao longo da vida), fundamental para acompanhar a aceleração</p><p>atual; e de autorregulação da aprendizagem, em que cada indivíduo estrutura,</p><p>monitora e avalia seu próprio aprendizado, ampliando sua capacidade de</p><p>retenção de conteúdo e engajamento. O futuro deverá privilegiar quem</p><p>“aprende a aprender”.</p><p>O</p><p>aumento do agenciamento da IA, especialmente quando substitui a agência</p><p>humana, remete a uma questão ética cada vez mais urgente: a</p><p>responsabilidade. A sociedade humana, desde Aristóteles, considera que</p><p>cada um é responsável pelas consequências de seus atos. Em Ética a Nicômaco,</p><p>o �lósofo acrescenta uma condição à responsabilidade moral, que é estar ciente</p><p>do que se está fazendo, o que não é o caso dos algoritmos de IA: como agente,</p><p>esses algoritmos são capazes de realizar ações e tomar decisões com</p><p>consequências éticas, mas não são capazes de um pensamento moral, portanto,</p><p>não podem ser responsabilizados pelas consequências de seus atos. Ou seja, os</p><p>algoritmos de IA são agentes, mas não são agentes morais, porque, entre</p><p>outros, carecem de consciência, emoções e sentimentos, intencionalidade.</p><p>Segundo Aristóteles, somente os seres humanos realizam atos voluntários,</p><p>cabendo aos humanos a responsabilidade pelos atos maquínicos. Ao delegar o</p><p>agenciamento à IA, os seres humanos retêm a responsabilidade.53</p><p>Atribuir aos humanos a responsabilidade sobre as decisões automatizadas,</p><p>ou mesmo sobre</p><p>meras previsões, não é trivial. Os sistemas de IA mais</p><p>complexos, portanto, com maior probabilidade de causar danos, agregam</p><p>contribuições de diversos desenvolvedores, utilizam bases de dados originadas</p><p>de múltiplas fontes para treinar seus algoritmos e, por �m, são aplicados para</p><p>executar tarefas, às vezes, em distintos domínios. A responsabilidade, desse</p><p>modo, teria de ser distribuída entre todas as partes envolvidas (o que nem</p><p>sempre é fácil de rastrear).</p><p>Assumir a responsabilidade sobre algo signi�ca ser capaz de explicar o</p><p>fenômeno e/ou evento. No caso do médico, por exemplo, é legítimo que o</p><p>paciente demande explicação sobre os procedimentos recomendados, a mesma</p><p>lógica aplica-se ao juiz, ao professor, ao pro�ssional de RH, em suma, a todos</p><p>os agentes com prerrogativas de tomar decisões com impactos na vida de</p><p>terceiros. A responsabilidade e, consequentemente, a explicabilidade são um</p><p>dos temas éticos mais sensíveis: por um lado, temos a opacidade intrínseca à</p><p>técnica de redes neurais profundas (como os algoritmos correlacionam os</p><p>parâmetros contidos nos dados), o que limita a capacidade dos humanos de</p><p>explicar plenamente a decisão do sistema; por outro, dado o estágio de</p><p>desenvolvimento da técnica, seus resultados re�etem, em grande parte, decisões</p><p>humanas, que, como comentado anteriormente, são fragmentadas,</p><p>di�cultando uma explicação abrangente. Ademais, grande parte dos usuários da</p><p>IA carecem de conhecimento básico, logo, não estão aptos a oferecer nenhuma</p><p>explicação.</p><p>Este bloco contém oito artigos sobre temas diversos, tais como fake news nos</p><p>negócios, ética como objeto da ação humana e ameaça das tecnologias de</p><p>reconhecimento facial. Inclui temas especí�cos, como o IA Guidebook, do</p><p>Google, e o documentário Coded Bias.</p><p>As fake news também atingem os negócios</p><p>24.7.2019</p><p>Dois professores da Universidade de Washington, Jevin West e Carl</p><p>Bergstrom, criaram o jogo online Which Face Is Real (Qual rosto é real) com</p><p>base em milhares de rostos humanos virtuais arti�ciais desenvolvidos pela</p><p>dupla. O desa�o consiste em adivinhar qual rosto é verdadeiramente humano.</p><p>Meio milhão de jogadores disputaram seis milhões de rodadas. A tecnologia do</p><p>jogo é da Nvidia, empresa de processadores grá�cos, e usa redes neurais (deep</p><p>learning/inteligência arti�cial) treinadas num imenso conjunto de retratos de</p><p>pessoas. O percentual de acertos girou em torno de 60% na primeira tentativa,</p><p>atingindo 75% de precisão em tentativas posteriores. Segundo seus criadores, a</p><p>intenção foi alertar a sociedade sobre a capacidade tecnológica atual de gerar</p><p>imagens falsas, e o risco é a impossibilidade de evitar usos não nobres dessa</p><p>tecnologia.</p><p>Em outro exercício acadêmico, dois pesquisadores da Global Pulse,</p><p>iniciativa ligada à Organização das Nações Unidas (ONU), usando apenas</p><p>recursos e dados de código-fonte aberto, mostraram com que rapidez poderiam</p><p>colocar em funcionamento um falso gerador de discursos de líderes políticos</p><p>em assembleias da ONU. O modelo foi treinado em discursos proferidos por</p><p>líderes políticos na Assembleia Geral da ONU entre os anos 1970 e 2015. Em</p><p>apenas 13 horas e a um custo de 7,80 dólares (despesa com recursos de</p><p>computação em nuvem), os pesquisadores conseguiram produzir discursos</p><p>realistas sobre uma ampla variedade de temas sensíveis e de alto risco, de</p><p>desarmamento nuclear a refugiados.</p><p>O tema das fake news ganhou visibilidade pelos impactos negativos nos</p><p>processos eleitorais, sobretudo na eleição de Donald Trump, em 2016, com os</p><p>bots russos se passando por eleitores norte-americanos; no Brasil, a eleição de</p><p>2018 disseminou o uso de robôs e tecnologias de impulsionamento automático</p><p>de mensagens, visando in�uenciar os eleitores. A produção de conteúdo falso</p><p>está não só proliferando, como também se so�sticando: agregando inteligência</p><p>arti�cial, despontam as deep fakes.</p><p>O fenômeno de falsi�cação na internet extrapola o âmbito das notícias e da</p><p>política, atingindo igualmente o mundo dos negócios, particularmente as</p><p>plataformas centradas em dados. O Review Meta, site independente que</p><p>monitora a veracidade do feedback online da Amazon, identi�cou um</p><p>crescimento de avaliações na plataforma postadas por usuários que não</p><p>compraram o item em questão, ou seja, não o experimentaram. Não por</p><p>coincidência, 98,2% dessas postagens avaliam o produto em cinco estrelas. A</p><p>socióloga turca Zeynep Tufekci, em artigo na revista Wired, alerta que as</p><p>alegações de falsidade também podem ser falsas: “Na Amazon, você</p><p>di�cilmente pode comprar um �ltro solar simples sem encontrar avaliações que</p><p>alegam que o produto é falsi�cado. Aliviado por ter sido avisado, você pode</p><p>�car tentado a clicar. Mas talvez essa revisão em si seja falsa, plantada por um</p><p>concorrente”.54</p><p>O modelo de negócio do Google e do Facebook, para citar dois dos gigantes</p><p>de tecnologia, baseia-se em oferecer aos anunciantes acesso segmentado aos</p><p>potenciais consumidores, tornando mais assertivas as campanhas publicitárias</p><p>online. Observa-se, contudo, que esse modelo também está suscetível a fraudes,</p><p>repleto de visualizações e cliques falsos. Em 2016, o Facebook admitiu ter</p><p>exagerado na quanti�cação do tempo que seus usuários assistem a vídeos na</p><p>plataforma, caracterizando como um “erro” com efeito zero sobre o</p><p>faturamento. Aparentemente, não foi esse o entendimento de muitos pequenos</p><p>anunciantes: em 2018 entraram com uma ação coletiva alegando que a rede</p><p>social estava in�ando seus números propositalmente.</p><p>São muitos os exemplos mundo afora. Na Bulgária, em 2017, por exemplo,</p><p>o Spotify foi fraudado no valor de 1 milhão de dólares: foram geradas músicas</p><p>de 30 segundos (tempo médio de escuta), e contas falsas automatizadas para</p><p>reproduzi-las; os fraudadores embolsavam a diferença entre os royalties e a</p><p>quantia paga à plataforma para listar suas próprias faixas.</p><p>Vivemos um período de crise generalizada de con�ança, que extrapola os</p><p>eventos na internet. Acima de regras morais e éticas, arcabouço regulatório e</p><p>sistemas de punição, a sociedade precisa de um mínimo de con�ança entre seus</p><p>agentes – instituições, governos e cidadãos – para funcionar de maneira sadia.</p><p>As facilidades da tecnologia e do meio digital só exacerbam o ambiente atual da</p><p>sociedade.</p><p>Os algoritmos de inteligência arti�cial podem ser</p><p>éticos?</p><p>9.8.2019</p><p>Em seu último livro, Máquinas como eu, o escritor inglês Ian McEwan trata</p><p>da distinção moral entre Miranda, uma jovem de 22 anos vizinha-namorada de</p><p>Charlie, e Adão, o humanoide adquirido por ele com recursos herdados pela</p><p>morte de sua mãe.55 O autor atribui ao humanoide uma visão moral mais</p><p>consistente e, indo além, levanta a possibilidade de nós, seres humanos, sermos</p><p>capazes de criar seres arti�ciais moralmente superiores (suposição �ccional, no</p><p>momento não existe nenhuma base cientí�ca para tal).</p><p>O tema da ética permeia a sociedade humana desde Aristóteles e foi</p><p>mudando de sentido ao longo da história, resguardando, contudo, a crença de</p><p>que apenas o humano é dotado da capacidade de pensar criticamente sobre</p><p>valores morais e dirigir suas ações em termos de tais valores. Com o avanço</p><p>recente das tecnologias de inteligência arti�cial, as questões éticas estão na</p><p>pauta. Associados à robótica, como no caso do humanoide Adão de McEwan,</p><p>ou mediando as interações sociais e os processos decisórios, os algoritmos de</p><p>inteligência arti�cial agregam inúmeros benefícios, mas, simultaneamente,</p><p>carecem de transparência, são difíceis de ser explicados e comprometem a</p><p>privacidade. Diariamente, aparecem casos ilustrativos no Brasil e mundo afora.</p><p>Nos estados de Utah e Vermont, nos Estados Unidos, o Departamento</p><p>Federal de Investigação (FBI) e o Serviço de Imigração e Alfândega (ICE)</p><p>usaram tecnologia de reconhecimento facial na análise de milhões de fotos de</p><p>carteiras de habilitação com o propósito de identi�car imigrantes ilegais. A</p><p>questão ética nesse procedimento é que, aparentemente, não houve</p><p>conhecimento, muito menos consentimento, dos motoristas;</p><p>ademais, vários</p><p>estudos indicam que os modelos de reconhecimento de imagem não são</p><p>perfeitos, em alguns casos a margem de erro pode ser relevante, em função,</p><p>entre outros, do viés contido nos dados.</p><p>Em 2018, o Facebook lançou um aplicativo que estimulava seus usuários a</p><p>postarem fotos atuais e de 10 anos atrás. Em julho de 2019, o FaceApp</p><p>alcançou o primeiro lugar na lista geral de aplicativos do Google Play e da App</p><p>Store, envelhecendo as fotos e projetando aparência futura. Ambos foram</p><p>sucesso e viralizaram. Longe de serem um mero entretenimento, esses</p><p>aplicativos servem para captar dados e utilizá-los no treinamento dos</p><p>algoritmos de reconhecimento de imagem (inteligência arti�cial/deep learning).</p><p>Em ambos os casos houve consentimento dos usuários, que aderiram</p><p>voluntariamente ao desa�o, mas não houve transparência quanto ao propósito.</p><p>Em meados de 2017, pesquisadores da Universidade de Stanford tornaram</p><p>público um algoritmo de inteligência arti�cial, o Gaydar, com a �nalidade de,</p><p>com base nas fotogra�as das plataformas de namoro, identi�car os</p><p>homossexuais. A motivação inicial era protegê-los, contudo, a iniciativa foi</p><p>vista como potencial ameaça à privacidade e à segurança, desencadeando</p><p>inúmeros protestos.</p><p>Nos Estados Unidos – país com, provavelmente, o mais e�ciente arcabouço</p><p>legal de proteção aos seus cidadãos e instituições –, existe o Institutional</p><p>Review Board (Conselho de Avaliação Institucional, IRB), que é um comitê</p><p>independente voltado para garantir a ética nas pesquisas e que norteia os</p><p>conselhos dos centros de pesquisa e universidades; o estudo que originou o</p><p>Gaydar foi previamente aprovado pelo Conselho de Avaliação de Stanford. A</p><p>questão é que as regras foram �xadas há 40 anos. “A grande e vasta maioria do</p><p>que chamamos de pesquisa de ‘grandes dados’ não é abrangida pela</p><p>regulamentação federal”,56 diz Jake Metcalfe, do Data & Society, instituto de</p><p>Nova York dedicado aos impactos sociais e culturais do desenvolvimento</p><p>tecnológico centrado em dados.</p><p>No evento Sustainable Brands em São Paulo, David O’Keefe, da Telefonica</p><p>Dynamic Insights, controladora da operadora de telefonia móvel Vivo,</p><p>apresentou alguns produtos derivados dos dados captados das linhas móveis</p><p>(mobile phone data). Com o título “Using Global Comms Data and Machine</p><p>Learning to Provide Digital Relationship Insights in Multinationals” (Usando</p><p>dados comuns globais e aprendizado de máquina para fornecer informações de</p><p>relacionamento digital em multinacionais), O’Keefe descreveu o “produto” em</p><p>que, por meio dos dados dos celulares dos funcionários de uma empresa</p><p>multinacional (quem ligou para quem, com que frequência, quanto tempo</p><p>durou a ligação etc.), é possível identi�car as redes informais internas,</p><p>importante elemento nas estratégias de gestão (sem conhecimento e</p><p>consentimento dos usuários).</p><p>Se no Rio de Janeiro e em outros estados os órgãos de segurança estão</p><p>usando livremente a tecnologia de reconhecimento facial, em São Francisco,</p><p>em 14 de maio último, foi proibido o uso pela polícia e por outros órgãos da</p><p>administração municipal. São Francisco é a primeira grande cidade dos Estados</p><p>Unidos a proibir o uso da tecnologia de reconhecimento facial como aparato</p><p>de vigilância e controle público.</p><p>Os modelos estatísticos buscam padrões e fazem previsões, contudo, seus</p><p>resultados não são objetivos nem garantidos, em parte, porque são baseados em</p><p>amostras que nem sempre são representativas do universo total (incerteza,</p><p>margem de erro). Adicionalmente, os fatores intangíveis não são quanti�cáveis.</p><p>Se em muitas situações do cotidiano a imprecisão não incomoda, o mesmo</p><p>não se pode dizer, por exemplo, de processos relacionados à saúde; até se aceita</p><p>que os algoritmos de IA diagnostiquem tumor cancerígeno, mas di�cilmente o</p><p>paciente aceita em uma quimioterapia automatizar a decisão do tipo de</p><p>medicação e da dose.</p><p>Uma das críticas, legítima, é que esses sistemas são caixas-pretas – não são</p><p>transparentes, explicáveis –, mas devemos lembrar que os humanos nem</p><p>sempre sabem explicar o porquê de determinadas decisões; a diferença, talvez, é</p><p>que os humanos, como seres racionais, inventam explicações, produzem</p><p>justi�cativas aparentemente plausíveis, mas nem sempre �dedignas, o que as</p><p>máquinas não são capazes de fazer.</p><p>O avanço recente da inteligência arti�cial, quando as máquinas não seguem</p><p>mais processos de decisão pré-programados pelos humanos e começam a</p><p>“aprender” por si mesmas (machine learning, deep learning), coloca para a</p><p>sociedade novos desa�os éticos e a premência de estabelecer arcabouços legais a</p><p>partir de uma regulamentação que, simultaneamente, proteja os indivíduos e as</p><p>instituições, e preserve o grau de liberdade necessário ao desenvolvimento</p><p>cientí�co e comercial. Será que a lei brasileira de proteção de dados dá conta</p><p>dessa complexidade?</p><p>Alerta: as tecnologias de reconhecimento facial estão</p><p>nos ameaçando</p><p>4.10.2019</p><p>No Carnaval de 2019, fato amplamente divulgado na mídia, o sistema de</p><p>reconhecimento facial da polícia baiana localizou e prendeu um criminoso</p><p>fantasiado de mulher no circuito Dodô. A polícia do Rio de Janeiro, em 2018,</p><p>contratou o sistema britânico Facewatch com o propósito de identi�car 1.100</p><p>criminosos ao cruzarem as câmeras de segurança; segundo anunciado, o sistema</p><p>vem sendo utilizado no Reino Unido há cerca de sete anos e conta com 30 mil</p><p>câmeras espalhadas pelo país.</p><p>Parte dos sistemas de vigilância usam tecnologias de reconhecimento facial</p><p>com inteligência arti�cial, especi�camente a técnica de deep learning, cujos</p><p>resultados, como todo modelo estatístico de probabilidade, não são precisos.</p><p>Nos Estados Unidos, o Instituto Nacional de Padrões e Tecnologia (NIST)</p><p>indicou que entre 2014 e 2018 a precisão passou de 96% para 99,8%, mas em</p><p>condições especiais testadas em laboratórios.</p><p>Inúmeros casos têm sido relatados globalmente sobre erro de identi�cação,</p><p>alguns com danos relevantes, como o ocorrido em julho último, no Rio de</p><p>Janeiro: uma mulher foi detida por engano em Copacabana e levada à delegacia</p><p>do bairro, após as câmeras de reconhecimento facial darem positivo. Em</p><p>paralelo, como não poderia deixar de ser, surgem soluções para “enganar” os</p><p>sistemas de reconhecimento facial, denominadas deep learning adversarial, que</p><p>provocam uma “ilusão de ótica” nas máquinas.</p><p>Proliferam câmeras de vigilância, em espaços públicos e privados, sem a</p><p>necessária consciência da sociedade sobre os riscos. Elas captam nossa imagem</p><p>nos aeroportos – o Departamento de Segurança Interna dos Estados Unidos</p><p>estima que o reconhecimento facial examinará 97% dos passageiros de</p><p>companhias aéreas até 2023 –, metrôs, espaços comerciais, dispositivos digitais.</p><p>Estão implantadas, ou em vias de, em escolas, transportes públicos, locais de</p><p>trabalho, unidades de saúde e nas ruas de algumas cidades e regiões.</p><p>A potencial ameaça à privacidade tem suscitado fortes reações contrárias a</p><p>esses sistemas. Em 14 de maio deste ano, São Francisco tornou-se a primeira</p><p>cidade dos Estados Unidos a proibir o uso dessa tecnologia pela polícia e por</p><p>outros órgãos da administração. A medida, deliberada pelo Conselho de</p><p>Supervisores da cidade em votação de 8x1, determina igualmente que todos os</p><p>departamentos divulguem as tecnologias de vigilância utilizadas ou em</p><p>processo de desenvolvimento, e de�nam políticas a esse respeito a serem</p><p>aprovadas pelo Conselho. Em julho último, o conselho municipal de Oakland,</p><p>também na Califórnia, votou a favor de uma lei que proíbe o uso de</p><p>tecnologias de reconhecimento facial pelas agências públicas, tornando-se, após</p><p>Somerville, em Massachusetts, a terceira cidade norte-americana a aprovar leis</p><p>semelhantes em 2019.</p><p>Em setembro, o Ada Lovelace Institute, órgão inglês de pesquisa</p><p>independente, divulgou os resultados de uma enquete realizada no Reino</p><p>Unido sobre a percepção do público com relação ao uso de tecnologia de</p><p>reconhecimento facial, indicando que: a) 90% dos ingleses estão conscientes do</p><p>uso</p><p>da tecnologia, mas apenas 53% admitem conhecer do que se trata; b) 46%</p><p>da população acredita que seja seu direito consentir ou não sobre a captação e o</p><p>uso de sua imagem, percentual que sobe para 56% entre as minorias étnicas; c)</p><p>os ingleses, em geral, estão dispostos a aceitar o reconhecimento facial em larga</p><p>escala se houver um benefício explícito, e 70% acham que deva ser permitido</p><p>para uso da polícia em investigações criminais; d) 67% não se sentem</p><p>confortáveis com o seu uso nas escolas, e 61% não se sentem confortáveis com</p><p>o seu uso nos transportes públicos; e) os ingleses esperam regulamentação</p><p>governamental, salvaguardas e limitações no uso policial, e 55% defendem que</p><p>o uso da tecnologia seja limitado a circunstâncias especí�cas; e f ) os ingleses,</p><p>majoritariamente, não con�am no setor privado no uso ético do</p><p>reconhecimento facial, 77% não se sentem confortáveis com o uso em lojas</p><p>para rastrear clientes, e 76%, por departamentos de RH no recrutamento de</p><p>candidatos para empregos de nível inicial. Cresce o debate público na</p><p>Inglaterra sobre aspectos éticos dessas tecnologias, acompanhado de protestos,</p><p>críticas políticas e processos legais. Existe um clamor social contra a ausência de</p><p>consultas públicas adequadas.</p><p>Em agosto de 2020, entra em vigor no Brasil a Lei Geral de Proteção de</p><p>Dados (LGPD), que, se ainda não está comprovada sua capacidade de</p><p>�scalização, já representa um avanço pelo simples fato de existir um arcabouço</p><p>legal sobre o uso de dados pessoais. Antecipando-se aos termos da lei, em</p><p>fevereiro último, o Instituto Brasileiro de Defesa do Consumidor (Idec)</p><p>noti�cou a varejista de roupas Hering para que explicasse a �nalidade dos</p><p>dados captados em sua loja do Morumbi Shopping, em São Paulo: câmeras</p><p>com tecnologia de reconhecimento facial captam as reações dos clientes às</p><p>peças expostas nas araras, e, em paralelo, sensores identi�cam suas preferências</p><p>ao circularem pela loja. O mesmo instituto, em 2018, processou a ViaQuatro,</p><p>concessionária da linha 4-Amarela do metrô de São Paulo, pelo uso de sensores</p><p>com tecnologia de reconhecimento facial nos seus painéis publicitários; a</p><p>Justiça determinou a suspensão imediata do uso dessa tecnologia, alegando</p><p>falta de transparência sobre a �nalidade, o tratamento e o uso das imagens.</p><p>Os modelos de negócio emergentes são, em parte, baseados em dados, em</p><p>captar e extrair informações valiosas dos dados, o que gera uma inédita relação</p><p>entre ética e negócios, deixando de ser associada exclusivamente à reputação de</p><p>marca e passando a fazer parte dos resultados �nanceiros e comerciais.</p><p>A objetividade relativa da IA pode neutralizar a</p><p>subjetividade humana?</p><p>27.12.2019</p><p>Cotidianamente, na vida pro�ssional e pessoal, tomamos decisões. Ainda</p><p>iludidos pelas ideias do Iluminismo do século XVIII – razão, livre-arbítrio –,</p><p>acreditamos que esses processos cognitivos sejam controlados, isto é, que</p><p>sabemos as razões pelas quais estamos decidindo. Quando confrontados, em</p><p>geral, os seres humanos explicam suas decisões, mas essas explicações são</p><p>fabricações racionais. A verdade é que desconhecemos o que de fato</p><p>in�uenciou nossa decisão, motivações em parte subjetivas e inconscientes. Sem</p><p>contar a falta de transparência deliberada – sabemos os reais critérios de decisão</p><p>na seleção para uma vaga de emprego? As organizações, em diversas situações,</p><p>justi�cam a opacidade de seus processos com o argumento da proteção da</p><p>propriedade intelectual e do sigilo comercial.</p><p>Os modelos de decisão automatizados trazem inúmeros benefícios aos</p><p>indivíduos e à sociedade, contudo, contêm riscos. Entre outros, perpetuam os</p><p>preconceitos e geram assimetria de informação entre os indivíduos e as</p><p>instituições detentoras de grandes conjuntos de dados (cujos modelos de</p><p>negócio são baseados em extrair informações úteis desses dados). O fato é que</p><p>não sabemos por que os modelos de inteligência arti�cial fazem as escolhas que</p><p>fazem, e essa di�culdade cresce proporcionalmente ao aumento da</p><p>complexidade dos próprios modelos.</p><p>Esforços estão sendo canalizados para garantir equidade, evitando que as</p><p>decisões sejam in�uenciadas por características de gênero, raça ou qualquer</p><p>outro atributo exclusivo de um grupo, cuidando para que as amostras usadas</p><p>no treinamento dos algoritmos re�itam a integralidade da população; assim</p><p>como para diversi�car as equipes de desenvolvedores, responsáveis por</p><p>introduzir e enfatizar nos modelos determinadas variáveis em detrimento de</p><p>outras.</p><p>A transparência do como e do por que as decisões automatizadas foram</p><p>geradas permitirá que os afetados compreendam os motivos e fundamentem</p><p>suas dúvidas e questionamentos. Na saúde, por exemplo, essa falta de</p><p>transparência é um obstáculo tanto para os médicos quanto para os pacientes,</p><p>que não se sentem confortáveis com diagnósticos automatizados.</p><p>Não por acaso, em paralelo à proliferação de decisões automatizadas em</p><p>distintas esferas – �ltram, classi�cam, recomendam, personalizam e modelam a</p><p>experiência humana desde diagnósticos médicos até processos jurídicos –,</p><p>surgem organizações dedicadas a combater, denunciar, �scalizar e desenvolver</p><p>soluções que respondam à pergunta: “Como funcionam esses modelos?”.</p><p>Em março de 2019, o Instituto de Engenheiros Eletricistas e Eletrônicos</p><p>(Institute of Electrical and Electronics Engineers - IEEE) dos Estados Unidos –</p><p>a maior organização pro�ssional sem �ns lucrativos dedicada ao avanço da</p><p>tecnologia em benefício da humanidade – divulgou um relatório com foco na</p><p>ética, visando informar, aprimorar e apoiar as organizações dedicadas à</p><p>inteligência arti�cial. O documento contém princípios éticos a serem</p><p>incorporados aos modelos de decisão, a partir de três macroprincípios:</p><p>inteligibilidade, processo técnico transparente e explicável; precisão, que os</p><p>resultados (ou outputs) representem a verdade; e equidade, que os dados e os</p><p>algoritmos contemplem uma amostra representativa do universo em questão.</p><p>O Fórum Econômico Mundial identi�cou quase 300 esforços mundo afora</p><p>com foco em desenvolver princípios éticos para a inteligência arti�cial,</p><p>envolvendo órgãos governamentais, universidades e associações pro�ssionais</p><p>como a Association for the Advancement of Arti�cial Intelligence (AAAI). O</p><p>G7, grupo dos países mais industrializados, propôs um Painel Internacional de</p><p>Inteligência Arti�cial inspirado no Painel Intergovernamental sobre Mudanças</p><p>Climáticas da ONU.</p><p>A tão criticada opacidade deve ser enfrentada. Trata-se de uma</p><p>oportunidade de gerar decisões transparentes, o que nunca teremos com os</p><p>seres humanos – as pessoas não são isentas nem neutras. Existem indícios</p><p>cientí�cos de que será possível mitigar, e até eliminar, o famoso viés nos</p><p>algoritmos inteligentes. Parte dos avanços são compartilhados na ACM</p><p>Conference on Fairness, Accountability, and Transparency (FccAT),</p><p>conferência interdisciplinar anual dedicada a investigar e resolver o problema</p><p>do viés nos sistemas inteligentes.</p><p>A objetividade relativa da inteligência arti�cial pode vir a neutralizar a</p><p>subjetividade humana. Essa é uma de suas promessas. Até lá, regulamentações</p><p>adequadas, como as leis de proteção de dados, podem minimizar seus efeitos</p><p>discriminatórios.</p><p>Aplicativo de reconhecimento facial: como �ca o</p><p>direito ao anonimato?</p><p>24.1.2020</p><p>A ClearView, empresa criada por Hoan Ton-�at, programador australiano</p><p>e ex-modelo, e Richard Schwartz, assessor de Rudolph Giuliani quando</p><p>prefeito de Nova York, é um aplicativo de reconhecimento facial que ameaça o</p><p>direito do cidadão de andar anonimamente pelas ruas da cidade. Com um</p><p>banco de dados de mais de três bilhões de imagens extraídas de sites na</p><p>internet, o aplicativo é capaz de identi�car fotos públicas de qualquer pessoa,</p><p>ou seja, sua localização em qualquer lugar público. O aplicativo pode localizar,</p><p>igualmente, um militante em uma manifestação ou um criminoso, revelando</p><p>informações privadas como nome e endereço de moradia.</p><p>Dos dois primeiros engenheiros contratados pelo aplicativo,</p><p>em 2016, um</p><p>deles desenvolveu um programa de coleta de imagens faciais na internet,</p><p>acessando sites de emprego, de notícias, educacionais e redes sociais, incluindo</p><p>Facebook, YouTube, Twitter e Instagram. O segundo engenheiro aperfeiçoou</p><p>um algoritmo de reconhecimento facial com base em inteligência arti�cial</p><p>(rede neural/deep learning), capaz de converter as imagens em fórmulas</p><p>matemáticas a partir da geometria facial (distância entre os olhos, por</p><p>exemplo). Ao carregar uma foto no aplicativo, automaticamente aparecem</p><p>todas as cópias dessa foto armazenadas no banco de imagens e os links dos sites</p><p>que publicaram a foto original.</p><p>Além de não ser do conhecimento público, a captação de imagens pela</p><p>Clearview é ilegal e viola os termos de serviço dos sites: as plataformas de mídia</p><p>social, incluindo o Facebook, proíbem a captura de imagens de seus usuários</p><p>por terceiros. Ton-�at minimiza a infração, alegando que essa é uma prática</p><p>comum e que, além do mais, o aplicativo usa apenas imagens publicamente</p><p>disponíveis (não tem acesso, por exemplo, àquelas que são protegidas pela</p><p>con�guração de privacidade do Facebook). Contudo, Jay Nancarrow, porta-voz</p><p>do Facebook, informou que o aplicativo está sendo analisado e que serão</p><p>tomadas medidas apropriadas no caso de comprovação de violação das regras.</p><p>Em matéria publicada no �e New York Times, a jornalista Kashmir Hill</p><p>denuncia as atividades do aplicativo Clearview e suas conexões com</p><p>departamentos de polícia norte-americanos e o FBI (total de prestação de</p><p>serviço: mais de 600 agências policiais desde 2019).57 Segundo Hill: “A técnica</p><p>de vendas mais e�caz da empresa era oferecer testes gratuitos de 30 dias aos</p><p>policiais, que incentivaram seus departamentos a se inscreverem e</p><p>recomendaram o aplicativo para o�ciais de outros departamentos de polícia.</p><p>De acordo com a própria empresa e documentos fornecidos pelos</p><p>departamentos de polícia, o Sr. Ton-�at �nalmente teve seu sucesso viral”.</p><p>Quando a jornalista começou a pesquisar a Clearview, em novembro de</p><p>2019, o site da empresa era uma página vazia com um endereço falso de</p><p>Manhattan. No per�l da empresa no LinkedIn constava um gerente de vendas,</p><p>John Good, que na verdade era o próprio fundador, Ton-�at. “Durante um</p><p>mês, as pessoas a�liadas à empresa não retornaram meus e-mails ou</p><p>telefonemas. Enquanto a empresa estava se esquivando, também estava me</p><p>monitorando. A meu pedido, vários policiais passaram minha foto pelo</p><p>aplicativo Clearview, em seguida receberam telefonemas de representantes da</p><p>empresa perguntando se estavam conversando com a mídia – um sinal de que a</p><p>Clearview tem a capacidade e, nesse caso, o apetite de monitorar quem a está</p><p>procurando”, conta Hill.</p><p>Além das imagens captadas ilegalmente das redes sociais, as agências</p><p>policiais estão fazendo upload de fotos con�denciais nos servidores da</p><p>Clearview sem nenhuma garantia sobre sua competência em proteger os dados</p><p>e a privacidade dos cidadãos. Aparentemente, os policiais estão entusiasmados</p><p>com o aplicativo pela ajuda efetiva que receberam na identi�cação de vários</p><p>criminosos em diversos estados norte-americanos.</p><p>A polícia estadual de Indiana foi o primeiro cliente da Clearview. Em</p><p>fevereiro de 2019, um crime foi resolvido em 20 minutos com o auxílio do</p><p>aplicativo: dois homens entraram em uma briga num parque, tendo um</p><p>atirado no estômago do outro; um cidadão registrou o crime no celular,</p><p>fornecendo à polícia o rosto do atirador; o aplicativo localizou o criminoso em</p><p>um vídeo legendado com o seu nome postado nas mídias sociais; em seguida,</p><p>ele foi preso e acusado.</p><p>A invasão da privacidade é o efeito perverso mais evidente, comprometendo</p><p>a liberdade de andar pelas ruas das cidades sem ser reconhecido, mas não é o</p><p>único. Como todos os modelos estatísticos baseados em redes neurais, seus</p><p>resultados indicam a probabilidade de algo ocorrer em percentuais menores do</p><p>que 100%; no caso da Clearview, seu fundador admite que o aplicativo tem</p><p>limitações em decorrência, principalmente, das imperfeições das fotos,</p><p>atingindo assertividade de 75% (vale ressaltar que o aplicativo não foi testado</p><p>por nenhum órgão especializado, como o Instituto Nacional de Padrões e</p><p>Tecnologia, agência federal norte-americana que avalia o desempenho de</p><p>algoritmos de reconhecimento facial). O percentual de 25% de erro pode</p><p>parecer pouco, mas com certeza não foi para a mulher detida por engano em</p><p>Copacabana, em julho de 2019, após as câmaras de reconhecimento facial da</p><p>polícia do Rio de Janeiro a identi�carem erroneamente.</p><p>“Procurar alguém pelo rosto pode se tornar tão fácil quanto pesquisar um</p><p>nome no Google. Estranhos seriam capazes de ouvir conversas sensíveis, tirar</p><p>fotos dos participantes e conhecer segredos pessoais. Alguém andando na rua</p><p>seria imediatamente identi�cável – e seu endereço residencial estaria a apenas</p><p>alguns cliques de distância. Anunciaria o �m do anonimato público”, sentencia</p><p>Kashmir Hill.</p><p>Ética é objeto da ação humana, não existe ética da</p><p>inteligência arti�cial</p><p>17.7.2020</p><p>A ética é objeto da ação humana, as tecnologias não têm objetivos próprios</p><p>nem autonomia. No caso da inteligência arti�cial, em seu estágio atual de</p><p>desenvolvimento, em que o humano detém a prerrogativa de controle, não há</p><p>como conceder a esses sistemas o status moral. A IA não tem uma ética</p><p>própria, trata-se de elaborar um conjunto de melhores práticas que possa ser</p><p>replicado em uma ampla variedade de con�gurações. O que não é nada trivial,</p><p>dada a complexidade de seus sistemas.</p><p>Jess Whittlestone, pesquisadora sênior do Leverhulme Center for the Future</p><p>of Intelligence, da Universidade de Cambridge, em um artigo com mais três</p><p>colegas publicado na Nature Machine Intelligence, alerta sobre a urgência de</p><p>encontrar maneiras de incorporar a ética no desenvolvimento e na aplicação da</p><p>inteligência arti�cial, e não como uma re�exão tardia. Para os autores, nos</p><p>últimos anos a ética em IA se concentrou em princípios gerais que não dizem</p><p>nada sobre como proceder quando esses princípios entram em con�ito, por</p><p>exemplo, no combate à covid-19 – como equilibrar o potencial da IA para</p><p>salvar vidas com as ameaças aos direitos civis, como privacidade? Além disso,</p><p>esses princípios éticos gerais têm pouco efeito sobre o desenvolvimento e a</p><p>aplicação das tecnologias.58</p><p>A Comissão Europeia lançou, em 8 de abril de 2019, o guia Ethics</p><p>Guidelines for Trustworthy AI (Orientações Éticas para uma IA Con�ável),59 cujos</p><p>princípios têm sido replicados mundo afora. Sua elaboração contou com 52</p><p>especialistas, incluindo membros de organizações não governamentais,</p><p>acadêmicos e representantes de empresas de tecnologia. Em fase-piloto ao</p><p>longo de 2020, o guia está aberto ao debate e às contribuições da sociedade</p><p>(consulta pública). As principais diretrizes do documento são o respeito à</p><p>autonomia humana, a prevenção contra o dano ao ser humano, a</p><p>explicabilidade e a transparência, e a justiça (evitar trajetórias oblíquas que</p><p>levem à discriminação). Além disso, propõe prerrequisitos para uma IA</p><p>con�ável, tais como intervenção e supervisão humana, robustez técnica e</p><p>segurança, privacidade e governança de dados, bem-estar social e ambiental, e</p><p>prestação de contas.</p><p>Esses princípios gerais estão na base fundadora de diversos institutos, tais</p><p>como o Future of Life Institute, constituído em 2014 pelo professor do MIT</p><p>Max Tegmark, com �nanciamento de Elon Musk; o AI Now Institute, da</p><p>Universidade de Nova York, fundado em 2017; e o AI for Good Institute, da</p><p>Universidade de Stanford, de 2019. O Future of Humanity Institute, liderado</p><p>pelo �lósofo inglês Nick Bostrom, criado em 2005, tem hoje um centro de</p><p>governança em inteligência arti�cial.</p><p>As gigantes da tecnologia, pressionadas pela sociedade, também produzem</p><p>suas listas de princípios. O Google, por exemplo, em 2018 anunciou sete</p><p>objetivos essenciais para criar sistemas socialmente bené�cos, seguros e</p><p>imparciais, com maior responsabilidade. Em 2019, divulgou o lançamento de</p><p>um conselho consultivo externo de ética</p><p>em inteligência arti�cial (alguns</p><p>funcionários reagiram questionando sua legitimidade). Um ano antes, sua</p><p>subsidiária DeepMind criou o grupo de estudo DeepMinds Ethics & Society</p><p>(DMES), dedicado ao estudo dos impactos da IA na sociedade, liderado por</p><p>Verity Harding e Sean Legassick e mais 25 pesquisadores com dedicação</p><p>exclusiva, com colaboração de Nick Bostrom e parcerias com o AI Now</p><p>Institute e o Leverhulme Center for the Future of Intelligence.</p><p>Essas iniciativas, aparentemente, não norteiam a condução de seus negócios:</p><p>em fevereiro último, por exemplo, o Google foi denunciado pela Comissão</p><p>Irlandesa de Proteção de Dados (DPC), local de sua sede na Europa, sobre o</p><p>tratamento de dados de geolocalização de seus usuários. O órgão regulador</p><p>alegou ter recebido inúmeras queixas de associações europeias de consumidores</p><p>de que o Google disponibilizou dados pessoais de seus usuários à anunciantes,</p><p>em desacordo com o Regulamento Geral sobre a Proteção de Dados da Europa</p><p>(GDPR), além de obter vantagens sobre modelos concorrenciais semelhantes</p><p>ao gerar segmentação mais precisa, consequentemente, atraindo mais</p><p>anunciantes.</p><p>O ponto comum entre esses movimentos é que propõem princípios</p><p>generalistas, de aplicabilidade restrita, de difícil tradução em boas práticas para</p><p>nortear o ecossistema de IA (pesquisadores, desenvolvedores, instituições,</p><p>universidades, empresas, governos). Além disso, parte desses princípios gerais</p><p>não leva em conta as limitações atuais da tecnologia que impossibilitam, por</p><p>exemplo, a eliminação do viés e a superação da opacidade (não</p><p>explicabilidade). Outro complicador é que não basta aplicar quaisquer desses</p><p>princípios éticos apenas no estágio de desenvolvimento e implementação da</p><p>tecnologia: os sistemas de IA “aprendem” e evoluem continuamente; um</p><p>sistema alinhado na partida, com novos conjuntos de dados e novo</p><p>aprendizado, pode sair do alinhamento, o que demandaria monitoramento</p><p>contínuo.</p><p>O Berkman Klein Center for Internet & Society, da Universidade de</p><p>Direito de Harvard, parece estar mais próximo de enfrentar o hiato entre os</p><p>princípios éticos gerais e um arcabouço ético aplicado ao desenvolvimento de</p><p>tecnologias de inteligência arti�cial. No documento “Ethics and Governance of</p><p>AI at Berkman Klein: Report on Impact, 2017-2019”, publicado em outubro</p><p>de 2019, é possível compreender a dimensão e a diversidade da atuação do</p><p>instituto na comunidade da Universidade Harvard, na comunidade de direito</p><p>do Estado, nas empresas e no setor público. 60</p><p>O ponto de partida foi a agregação em oito temas dos cerca de 50 princípios</p><p>globais de inteligência arti�cial: privacidade, responsabilidade, segurança e</p><p>proteção, transparência e explicabilidade, justiça e não discriminação, controle</p><p>humano da tecnologia, responsabilidade pro�ssional e promoção dos valores</p><p>humanos. A partir desse guia geral, o instituto se organizou em “trilhas”. Por</p><p>exemplo, o AGTech Forum interage com os advogados e suas equipes, visando</p><p>acelerar as questões relacionadas à privacidade e à segurança cibernética.61</p><p>O programa Assembly reúne anualmente a indústria, a academia e o</p><p>governo para trabalhar em projetos de tecnologia direcionados ao bem social,</p><p>com resultados concretos nos últimos anos, como o Data Nutrition Project,</p><p>agora uma entidade sem �ns lucrativos, que elaborou novos padrões e formatos</p><p>– inspirados nos rótulos nutricionais do FDA para produtos alimentícios –</p><p>para avaliar e rotular conjuntos de dados.</p><p>Outra de suas iniciativas é o projeto Techtopia, que reúne equipes de</p><p>professores e estudantes com foco no desenvolvimento de novas pedagogias.</p><p>Em maio de 2019, a equipe de jovens do instituto lançou o relatório intitulado</p><p>Youth and Arti�cial Intelligence: Where We Stand (Juventude e inteligência</p><p>arti�cial: onde estamos).62</p><p>O workshop Towards Global Guidance on AI and Child Rights (Orientação</p><p>global sobre IA e direitos da criança), promovido pelo Fundo das Nações</p><p>Unidas para a Infância (UNICEF), em junho de 2019, examinou algumas das</p><p>maneiras como a tecnologia de inteligência arti�cial está recon�gurando as</p><p>experiências dos alunos desde a primeira infância e sinalizou uma série de</p><p>perguntas-chave para professores e formuladores de políticas.63 O Principled</p><p>Arti�cial Intelligence Project, lançado na Cyberlaw Clinic, em junho de 2019,</p><p>trabalha para mapear o conjunto de diretrizes, padrões e práticas recomendadas</p><p>sobre desenvolvimento e implantação de IA. O projeto metaLAB AI + Art, da</p><p>Universidade Harvard, produziu, durante dois anos (de maio de 2017 a maio</p><p>de 2019), 10 projetos, realizou mais de 45 exposições em 11 países, foi coberto</p><p>em mais de 25 artigos, ministrou nove o�cinas e cursos e realizou mais de 50</p><p>palestras públicas.64</p><p>Com a crescente presença da inteligência arti�cial em nossas vidas, é</p><p>premente reduzir a lacuna de conhecimento entre os especialistas em IA e as</p><p>pessoas que usam, interagem e são impactadas por essas tecnologias. É preciso,</p><p>igualmente, ir além de simples “declaração de princípios”, e pensar em como</p><p>reduzir as externalidades negativas de seus modelos e proteger a sociedade. No</p><p>mínimo, espera-se que desenvolvedores, cientistas e empresas, no mínimo,</p><p>explicitem os riscos associados aos seus modelos de IA, riscos conhecidos, ou</p><p>seja, estamos falando de transparência.</p><p>Princípios éticos gerais versus regras práticas:</p><p>re�exões sobre o AI Guidebook do Google</p><p>31.7.2020</p><p>O �lósofo italiano Luciano Floridi, em artigo publicado em coautoria com</p><p>o pesquisador Josh Cowls, reconhece que a inteligência arti�cial esteja se</p><p>disseminando na sociedade com potencial de aliviar ou ampliar as</p><p>desigualdades, e que os princípios éticos gerais propostos por instituições</p><p>mundo afora são limitados como subsídios à criação de leis, regras, normas</p><p>técnicas e melhores práticas.65</p><p>Os autores propõem incluir um “novo” princípio: explicabilidade,</p><p>“incorporando tanto o senso epistemológico de inteligibilidade (como resposta</p><p>à pergunta ‘como isso funciona?’), quanto o sentido ético, de responsabilidade</p><p>(como resposta à pergunta: ‘quem é responsável pela maneira como</p><p>funciona?’)”. A proposta dos autores causa estranheza, primeiramente porque</p><p>não se trata de um princípio novo, pelo contrário, está incluso na maioria das</p><p>listas de princípios gerais; e, em segundo lugar, porque con�ita com o</p><p>funcionamento da própria tecnologia (a famosa “caixa-preta” ou não</p><p>explicabilidade dos modelos de redes neurais/deep learning).</p><p>A atual relação entre tecnologia e seres humanos é complexa, como admite a</p><p>Comissão Europeia, em documento de 2019, High-Level Expert Group on</p><p>Arti�cial Intelligence: “Por um lado, as tecnologias são construídas por pessoas e</p><p>organizações especí�cas, de modo que incorporam e reproduzem normas</p><p>sociais, valores e outras forças econômicas, ecológicas, políticas e culturais; por</p><p>outro lado, as tecnologias moldam como trabalhamos, nos movemos, nos</p><p>comunicamos e vivemos”. 66 A Comissão alerta que as implicações éticas e</p><p>sociais da tecnologia precisam considerar o entrelaçamento fundamental dos</p><p>domínios humano e tecnológico – “os seres humanos são seres tecnológicos,</p><p>assim como as tecnologias são entidades sociais” –, e ser capazes de distinguir</p><p>os impactos no nível individual (autonomia, identidade, dignidade,</p><p>privacidade e proteção de dados) e os impactos no nível social (justiça e</p><p>equidade, identidade coletiva e boa vida, responsabilidade e transparência,</p><p>democracia, con�ança).</p><p>O ponto de partida desse documento, e também do documento</p><p>Recommendation of the Council on Arti�cial Intelligence,67 da Organização para a</p><p>Cooperação e Desenvolvimento Econômico (OCDE), foi o AI4People,</p><p>primeiro fórum global da Europa sobre os impactos sociais da inteligência</p><p>arti�cial, realizado em 10 de fevereiro de 2018, em Bruxelas. Reunindo mais de</p><p>50 especialistas independentes, pesquisadores, tomadores de decisão e</p><p>representantes da indústria e da sociedade civil, o objetivo do fórum era</p><p>esboçar um conjunto de diretrizes éticas destinado a facilitar o desenho de</p><p>políticas favoráveis ao desenvolvimento de uma “IA</p><p>precisa ser entendido e explorado em seus</p><p>aspectos positivos. A tecnologia de inteligência arti�cial não é perfeita, como</p><p>toda tecnologia; com um debate sério, podemos minimizar seus problemas e</p><p>maximizar seus benefícios.</p><p>Em resumo, é fundamental desmisti�car a inteligência arti�cial. Por isso, este</p><p>livro merece ser lido com cuidado. Seus capítulos viajam por temas</p><p>interdisciplinares, examinando a de�nição de inteligência arti�cial e seus</p><p>componentes, discutindo o mercado de trabalho, as questões éticas, os aspectos</p><p>econômicos e regulatórios, bem como as aplicações e os impactos em áreas</p><p>como saúde e clima. Escrito em linguagem acessível, o texto não se furta a</p><p>questionar tanto os conceitos básicos de inteligência arti�cial quanto as</p><p>percepções da sociedade sobre essa tecnologia.</p><p>A autora e colega, Dora Kaufman, tem trabalhado há tempos na interface</p><p>entre tecnologia e sociedade. Temos tido a chance de interagir no âmbito do</p><p>Centro de Inteligência Arti�cial (Center for Arti�cial Intelligence – C4AI),</p><p>criado em 2020 com suporte da IBM e da Fundação de Amparo à Pesquisa do</p><p>Estado de São Paulo (FAPESP), sediado na Universidade de São Paulo (USP) e</p><p>com a Pontifícia Universidade Católica de São Paulo (PUC-SP) como</p><p>instituição parceira. Um dos objetivos do centro é justamente oferecer um</p><p>espaço de debate amplo e interdisciplinar, onde diferentes ideias possam ser</p><p>exploradas e testadas. A profa. Dora exercita muito bem esse elemento de</p><p>interdisciplinaridade que é essencial para o entendimento das inteligências</p><p>arti�ciais que estão entre nós e das que estarão no futuro. Parabéns a ela pelo</p><p>texto lúcido; parabéns ao leitor pela escolha de leitura.</p><p>Introdução</p><p>Em palestra proferida em 1985, Richard Feynman, Prêmio Nobel de 1965 e</p><p>um dos mais reconhecidos físicos teóricos, debate temas críticos do campo da</p><p>inteligência arti�cial.4 O diálogo com o público tem início com uma pergunta-</p><p>chave: “Você acha que haverá uma máquina que possa pensar como os</p><p>humanos e ser mais inteligente do que os humanos?”. Para Feynman, as futuras</p><p>máquinas não pensarão como os seres humanos, da mesma forma que um</p><p>avião não voa como os pássaros. Entre outras diferenças, os aviões não batem</p><p>asas; são processos, dispositivos e materiais distintos. Quanto à questão de as</p><p>máquinas superarem a inteligência humana, na visão do físico, o ponto de</p><p>partida está na própria de�nição de “inteligência”.</p><p>De fato, é difícil de�nir o que entendemos por “inteligência”. Segundo</p><p>Stuart Russell, pesquisador que é referência no campo da inteligência arti�cial,</p><p>uma entidade é inteligente na medida em que o que faz é capaz de alcançar o</p><p>que deseja.5 Russell escreve: “Todas essas outras características da inteligência –</p><p>perceber, pensar, aprender, inventar e assim por diante – podem ser</p><p>compreendidas por meio de suas contribuições para nossa capacidade de agir</p><p>com sucesso”. Russell lembra que o conceito de inteligência, desde os</p><p>primórdios da �loso�a grega antiga, está associado a capacidades humanas</p><p>(perceber, raciocinar e agir), o que não seria o caso da inteligência arti�cial,</p><p>“meros” modelos de otimização com objetivos de�nidos pelos humanos, e não</p><p>dotados desses atributos. Outros autores não consideram a “inteligência” uma</p><p>prerrogativa humana, como o próprio Marvin Minsky, um dos fundadores do</p><p>campo da IA, ao argumentar que os sistemas de inteligência arti�cial têm</p><p>habilidades, apesar de limitadas, de aprendizagem e raciocínio. Complicando</p><p>ainda mais esse debate, as técnicas atuais de IA lidam com percepção, análise</p><p>de texto, processamento de linguagem natural (PNL), raciocínio lógico,</p><p>sistemas de apoio à decisão, análise de dados e análise preditiva.</p><p>Outro tema abordado por Feynman em sua palestra de 1985 foi o</p><p>reconhecimento de padrões em grandes conjuntos de dados, à época um</p><p>desa�o ainda não totalmente viabilizado por técnicas empíricas de inteligência</p><p>arti�cial. A programação computacional, pondera o físico, não contemplaria as</p><p>nuances da realidade, como luminosidades, distâncias e ângulos de inclinação</p><p>da cabeça num conjunto de fotos – os seres humanos são capazes de reconhecer</p><p>uma pessoa pelo movimento do corpo ao andar, pela maneira como mexe no</p><p>cabelo e por outros pequenos e sutis detalhes.</p><p>Resolver tarefas executadas pelos humanos intuitivamente, e com relativo</p><p>grau de subjetividade, era um desa�o dos primórdios do campo da inteligência</p><p>arti�cial. Várias tentativas que envolviam linguagens formais apoiadas em</p><p>regras de inferência lógica tiveram êxito limitado, sugerindo a necessidade de os</p><p>sistemas gerarem seu próprio conhecimento pela extração de padrões de dados,</p><p>ou seja, “aprender” com os dados sem receber instruções explícitas. Esse</p><p>processo é usualmente denominado de “aprendizado de máquina” (machine</p><p>learning), subcampo da inteligência arti�cial criado em 1959 e hoje certamente</p><p>o maior da IA em número de praticantes.</p><p>A técnica de aprendizado de máquina que melhor resolve esses desa�os é o</p><p>aprendizado profundo (deep learning), que introduz representações complexas,</p><p>expressas em termos de outras representações mais simples organizadas em</p><p>diversas camadas. Essa estrutura codi�ca uma função matemática que mapeia</p><p>conjuntos de valores de entrada (inputs) para valores de saída (outputs); redes</p><p>com maior profundidade (mais camadas) têm apresentado resultados positivos</p><p>em várias áreas, particularmente em visão computacional e reconhecimento de</p><p>voz e imagem.</p><p>Essa relativamente nova técnica de aprendizado de máquina é denominada</p><p>de “redes neurais de aprendizado profundo” (deep learning neural networks,</p><p>DLNN) pela inspiração no funcionamento do cérebro biológico. A técnica é</p><p>capaz de lidar com dados de alta dimensionalidade, por exemplo, milhões de</p><p>pixels num processo de reconhecimento de imagem. Além disso, seus</p><p>algoritmos estabelecem correlações nos dados não perceptíveis aos</p><p>desenvolvedores humanos, origem do problema da interpretabilidade ou</p><p>“caixa-preta”.</p><p>Na última década, a disponibilidade de grandes conjuntos de dados (big</p><p>data), produzidos por uma sociedade hiperconectada, e a maior capacidade</p><p>computacional, particularmente com o advento das GPUs (graphic processing</p><p>units), geraram resultados positivos nos sistemas baseados nessa técnica. Assim,</p><p>a técnica de aprendizado profundo tornou-se fator estratégico de processos</p><p>decisórios pela capacidade de gerar insights preditivos com taxas relativamente</p><p>altas de acurácia, permeando a maior parte das aplicações atuais de inteligência</p><p>arti�cial. Entretanto, a técnica ainda possui limitações, como requerer grandes</p><p>quantidades de dados de qualidade para desenvolvimento, treinamento e</p><p>aperfeiçoamento dos modelos, e demandar, por sua arquitetura complexa,</p><p>hardware com grande capacidade de processamento (intensivo em consumo de</p><p>energia, consequentemente, em emissão de CO2).</p><p>Na esfera ética, destaca-se o problema do viés nos resultados (ou resultados</p><p>discriminatórios por gênero, raça, etnia, entre outros). Em geral, atribui-se o</p><p>viés às bases de dados tendenciosas, porém, o viés pode emergir antes da coleta</p><p>de dados, em função das decisões tomadas pelos desenvolvedores (as variáveis</p><p>contempladas no modelo, inclusive, determinam a seleção dos dados).</p><p>Em veri�cações estatísticas de rotina nos dados de um grande hospital, por</p><p>exemplo, pesquisadores da Universidade da Califórnia, em Berkeley,</p><p>coordenados pelo médico e professor Ziad Obermeyer, especializado na</p><p>interseção entre aprendizado de máquina e saúde, constataram que, em um</p><p>sistema automatizado de triagem para assistência médica de alta complexidade,</p><p>pacientes autoidenti�cados como negros tendiam a receber pontuações de risco</p><p>mais baixas do que pacientes brancos em condições similares. Amplamente</p><p>utilizado em hospitais e seguradoras nos Estados Unidos, o sistema</p><p>invariavelmente discriminava os pacientes negros: apenas 17,7% dos pacientes</p><p>selecionados eram negros, quando a proporção não tendenciosa seria de</p><p>46,5%.</p><p>Após um minucioso escrutínio, os pesquisadores</p><p>bené�ca”.</p><p>Em paralelo com os organismos internacionais e institutos, o mercado se</p><p>movimenta para adequar seus produtos e serviços às leis de proteção de dados,</p><p>que indiretamente afetam os modelos de IA baseados em dados pessoais, e</p><p>incorporar valores éticos e sociais aos seus sistemas inteligentes para atender à</p><p>pressão da sociedade (preservar suas reputações, imagens de marca).</p><p>O People + AI Research (PAIR), área do Google criada em 2010, reúne uma</p><p>equipe multidisciplinar coliderada pela brasileira Fernanda Viégas e por Martin</p><p>Wattenberg: “Nosso objetivo é fazer pesquisas fundamentais, inventar novas</p><p>tecnologias e criar estruturas para o design, a �m de conduzir uma abordagem</p><p>centrada no ser humano à inteligência arti�cial”. Com base em recomendações,</p><p>dados e insights de mais de 150 especialistas das equipes de produtos, com a</p><p>colaboração de pesquisadores acadêmicos e consultores externos, em 2019, o</p><p>PAIR lançou o AI Guidebook,68 conjunto de diretrizes com foco em prover os</p><p>designers e os gerentes de negócio de subsídios para “melhor representar o</p><p>usuário na ‘mesa’ de desenvolvimento de produtos”, ou seja, defender o desejo</p><p>do usuário por mais transparência e con�abilidade.</p><p>O guia é dividido em seis capítulos, e cada um deles contém uma planilha</p><p>com orientações concretas, por exemplo, que os desenvolvedores, antes de</p><p>iniciar o desenvolvimento de novos produtos, respondam a questões tais como:</p><p>quem são seus usuários? Quais são seus valores? Qual problema você deve</p><p>resolver para eles? Como você resolverá esse problema? Como você saberá</p><p>quando a experiência for concluída? Há uma preocupação explícita em não</p><p>decepcionar o usuário, nem superestimar o produto (atitute típica do mercado</p><p>de tecnologia). A recomendação é dar ênfase aos benefícios, e não à tecnologia,</p><p>sem, contudo, deixar de comunicar a natureza algorítmica e os limites dos</p><p>produtos: sendo baseados em estatísticas e probabilidades, o usuário não deve</p><p>con�ar totalmente no sistema.</p><p>A parte referente à coleta e ao uso de dados (capítulo 3 do AI Guidebook)</p><p>explicita um conjunto de regras de conduta visando adequar-se às leis de</p><p>proteção de dados (privacidade, consentimento, segurança), minimizar o</p><p>potencial viés das bases de dados e garantir o alinhamento às metas do produto</p><p>e às necessidades do usuário.</p><p>Leitura atenta do guia indica, contudo, mais foco nos interesses comerciais</p><p>(garantir satisfação do usuário na experiência com os produtos e serviços) e</p><p>jurídico (proteção contra futuros passivos legais), e menos na transparência.</p><p>Muitas ações poderiam ser tomadas em relação ao interesse do usuário; o</p><p>tradutor do Google (Google Translate), por exemplo, poderia incorporar um</p><p>aviso sobre suas limitações ou atribuir cores distintas ao grau de acurácia da</p><p>tradução de cada palavra (essas ideias foram compartilhadas com Fernanda</p><p>Viégas, a quem pareceram factíveis). O AI Guidebook ainda está em fase de</p><p>implementação, é cedo para veri�car sua e�cácia, mas pode servir de referência</p><p>para o mercado, principalmente para as startups, geralmente sem times</p><p>multidisciplinares.</p><p>Os modelos de inteligência arti�cial são complexos, di�cultando a</p><p>compreensão de usuários com conhecimento técnico limitado. É controversa,</p><p>contudo, a crença de que a falta de transparência, a não explicabilidade, desses</p><p>sistemas incomoda efetivamente a maioria dos usuários (aparentemente,</p><p>contentam-se com os benefícios). De qualquer forma, certamente a sociedade</p><p>precisa estar vigilante, e para tal é imprescindível conhecer a lógica e o</p><p>funcionamento dessas tecnologias.</p><p>Documentário Coded Bias: o rosto como última</p><p>fronteira da privacidade</p><p>16.4.2021</p><p>Coded Bias (2020), da cineasta e ativista norte-americana Shalini Kantayya,</p><p>é o melhor documentário produzido sobre as externalidades negativas das</p><p>tecnologias de inteligência arti�cial, pela qualidade e precisão das abordagens,</p><p>pelo relato �dedigno dos fatos, pela seleção dos casos ilustrativos e pelos</p><p>depoimentos de especialistas convidados. O foco são os sistemas de</p><p>reconhecimento facial utilizados em larga escala mundo afora.</p><p>A protagonista do documentário é Joy Buolamwini, estudante de doutorado</p><p>em Ciência da Computação do MIT e fundadora da Algorithmic Justice</p><p>League, cuja missão é defender e preservar os direitos e liberdades individuais</p><p>garantidos pela Constituição dos Estados Unidos. O enredo começa com a</p><p>descoberta de Buolamwini da discriminação de gênero contida num sistema de</p><p>reconhecimento facial que seria usado num projeto de arte e tecnologia: o</p><p>sistema só reagia quando Buolamwini, que é negra, colocava uma máscara</p><p>branca. Impactada pela descoberta e motivada pelo livro de Cathy O’Neil</p><p>Algoritmos de destruição em massa, Buolamwini empreendeu uma longa batalha</p><p>contra o uso indiscriminado dessa tecnologia, substanciada em investigações</p><p>cientí�cas e análise de casos reais.69 Em maio de 2019, por iniciativa dela e de</p><p>seus colaboradores, ocorreu a primeira audiência no Congresso dos Estados</p><p>Unidos sobre o uso de tecnologias de reconhecimento facial.</p><p>Um dos exemplos explorados no documentário é o uso de reconhecimento</p><p>facial nos sistemas de vigilância de Londres.70 O londrino médio é �lmado 300</p><p>vezes por dia, o que atribui à cidade o título de “capital mundial da CCTV”</p><p>(closed-circuit television). A ONG de direitos humanos Big Brother Watch</p><p>lidera uma campanha, retratada no documentário, contra o uso da tecnologia</p><p>pela polícia inglesa, com ações de conscientização e protesto pelas ruas de</p><p>Londres. Numa das cenas, o grupo de ativistas intercede em defesa de um</p><p>cidadão assediado e multado pela polícia pelo simples fato de ter passado em</p><p>frente a uma das câmeras com o rosto coberto. Em outra cena, um rapaz negro,</p><p>por reconhecimento equivocado do sistema, é revistado pela polícia na frente</p><p>dos amigos.</p><p>O argumento legítimo da ONG é que a lei inglesa, como nos demais países,</p><p>protege os dados pessoais de identi�cação, exigindo consentimento ou</p><p>autorização judicial para a coleta de DNA e impressão digital. A Protection of</p><p>Freedoms Act 2012: DNA and Fingerprint (Lei de Proteção da Liberdade de</p><p>2012: disposições sobre DNA e Impressão Digital), em vigor desde outubro de</p><p>2013, prevê que apenas os condenados por crime tenham seus registros de</p><p>impressão digital e per�l de DNA retidos inde�nidamente, os demais devem</p><p>ser destruídos no prazo máximo de seis meses após a coleta. Contrariando essa</p><p>lei e a lei de proteção de dados europeia de 2018 (GDPR), as câmaras de</p><p>vigilância captam dados biométricos à revelia do cidadão, com zero</p><p>transparência.</p><p>Outro exemplo apresentado no documentário é o uso de reconhecimento</p><p>facial pelo FBI. A agência treina seus algoritmos em dados coletados de</p><p>registros estaduais de motoristas habilitados, sem mandato e sem medida de</p><p>proteção; a coleta já ocorreu em 18 estados norte-americanos. Essas ações são</p><p>inconstitucionais. Como mostram os �lmes e as séries, para entrar na casa de</p><p>um suspeito, a polícia precisa de consentimento do morador ou de mandato</p><p>judicial, e as provas colhidas ilegalmente não são aceitas no tribunal.</p><p>O documentário clama por regulamentação. Cathy O’Neil, por exemplo,</p><p>propõe a criação de uma agência reguladora da inteligência arti�cial, que</p><p>exigiria dos desenvolvedores da tecnologia evidências de que seus sistemas não</p><p>causem danos à sociedade. “Prove que é legal antes de lançar”, vaticina O’Neil.</p><p>A prática, contudo, está mostrando que identi�car e denunciar os danos é mais</p><p>fácil do que regulamentá-los.</p><p>O estado de Massachusetts, em resposta ao movimento iniciado em 2019</p><p>por Kade Crockford, ativista da American Civil Liberties Union (ACLU),</p><p>aparentemente, conseguiu encontrar um equilíbrio na regulamentação do</p><p>reconhecimento facial, permitindo que os agentes da lei aproveitem seus</p><p>benefícios enquanto constroem proteções aos cidadãos. O projeto, que entra</p><p>em vigor em julho deste ano, prevê que a polícia tem de obter a permissão de</p><p>um juiz antes de fazer uma pesquisa de reconhecimento facial, e em seguida ter</p><p>alguém da polícia</p><p>estadual para realizar a busca; um o�cial local não pode</p><p>simplesmente baixar um aplicativo de reconhecimento facial e fazer uma</p><p>pesquisa. Em paralelo, foi de�nida uma comissão para estudar as políticas de</p><p>reconhecimento facial e fazer recomendações, por exemplo, se um réu criminal</p><p>deve ser informado de que foi identi�cado usando-se a tecnologia.</p><p>A proposta de auditar os sistemas de inteligência arti�cial vem sendo</p><p>debatida em vários fóruns. A convite do governo francês, o matemático Cédric</p><p>Villani che�ou uma força-tarefa sobre a estratégia de IA para a França e a</p><p>Europa com a missão de avaliar a consistência dos modelos em relação aos</p><p>princípios e normas vigentes; ao �nal, Villani recomendou a obrigatoriedade de</p><p>auditar os sistemas autônomos. A ideia de auditoria é igualmente defendida</p><p>pelo �lósofo Luciano Floridi; contudo, o próprio Floridi aponta um conjunto</p><p>de restrições conceituais, técnicas, econômicas, sociais, organizacionais e</p><p>institucionais para sua implementação.71</p><p>Complicando ainda mais, os sistemas de inteligência arti�cial são</p><p>dinâmicos, transformam-se com novos dados; não resolve, portanto, auditar</p><p>apenas na partida. A velocidade e a descentralização no desenvolvimento da</p><p>tecnologia di�cultam replicar o arcabouço regulatório da indústria</p><p>farmacêutica (mais concentrada, relativamente mais fácil de monitorar e</p><p>�scalizar). Os algoritmos de IA são, em geral, proprietários, ou seja, são</p><p>protegidos por sigilo comercial; as tecnologias são so�sticadas, demandam</p><p>conhecimento especializado que, em geral, escapam aos reguladores e</p><p>legisladores; e a natureza do órgão de auditoria é crítica, cada opção tem seus</p><p>problemas (órgão de governo, órgão multilateral, terceirizado-privado).</p><p>A Comissão Europeia anunciou que vai propor uma regulamentação para</p><p>inteligência arti�cial ainda no primeiro trimestre de 2021, com o objetivo de</p><p>salvaguardar os valores e os direitos fundamentais da União Europeia e a</p><p>segurança dos usuários. O projeto é resultado de um longo processo que</p><p>contou com a contribuição de 52 especialistas e permaneceu em consulta</p><p>pública durante todo o ano 2020. Os pontos antecipados ainda são bem gerais</p><p>– garantir supervisão humana e informações claras sobre capacidades e</p><p>limitações dos sistemas.</p><p>A Organização das Nações Unidas para a Educação, a Ciência e a Cultura</p><p>(Unesco) elaborou um documento sob consulta pública igualmente generalista,</p><p>mais próximo de uma carta de intenções; acompanhando a tendência, não</p><p>contempla as limitações da tecnologia nem as restrições mencionadas</p><p>anteriormente.72 Sobre a Portaria GM n.º 4.617, do Ministério da Ciência,</p><p>Tecnologia e Inovações do Brasil, de 6 de abril de 2021, que institui a</p><p>“Estratégia Brasileira de Inteligência Arti�cial e seus eixos temáticos”, ver</p><p>coluna do jornalista Ronaldo Lemos.73</p><p>Denunciar os danos dos sistemas de inteligência arti�cial é mandatório,</p><p>como enfrentá-los é complexo, o desa�o é migrar de princípios e intenções</p><p>gerais para diretrizes e regulamentações.</p><p>U</p><p>m sistema de IA é considerado enviesado, ou seja, apresenta viés nos</p><p>resultados, quando ocorre discriminação sistemática contra certos</p><p>indivíduos ou grupos de indivíduos com base em certos traços ou</p><p>características, particularmente, atributos sensíveis, como gênero, etnia, raça.</p><p>No século XVI o termo viés adquire o signi�cado de “preconceito” e, por volta</p><p>de 1900, no campo da estatística, o signi�cado técnico como diferenças</p><p>sistemáticas entre uma amostra e a população-universo. No campo do direito,</p><p>o viés refere-se a uma opinião preconcebida, um julgamento fundado em</p><p>preconceitos, o oposto de uma decisão proveniente de avaliação imparcial dos</p><p>fatos.</p><p>Em geral, atribui-se o viés integralmente às bases de dados tendenciosas.</p><p>Porém, o viés pode emergir antes da coleta de dados em função das decisões</p><p>tomadas pelos desenvolvedores (os atributos e variáveis contemplados no</p><p>modelo, inclusive, determinam a seleção dos dados). No caso de viés associado</p><p>aos dados, existem duas principais origens: os dados coletados não representam</p><p>a composição proporcional do universo objeto em questão, ou os dados</p><p>re�etem os preconceitos existentes na sociedade. O primeiro caso pode ocorrer</p><p>se uma base de dados de treinamento privilegiar uma categoria especí�ca, seja</p><p>ela majoritária ou minoritária, por exemplo, algoritmos de reconhecimento</p><p>facial treinados em base de dados predominantemente de homens de pele clara.</p><p>O segundo caso pode ser consequência do enviesamento da própria realidade,</p><p>o que seria um viés histórico, por exemplo, algoritmos de seleção de candidatos</p><p>para funções de tecnologia treinados em base de dados na qual predominam</p><p>currículos de pro�ssionais do sexo masculino.</p><p>Resultados tendenciosos podem decorrer, igualmente, de erros na rotulagem</p><p>da base de dados, processo que antecede o aprendizado supervisionado, e/ou na</p><p>própria geração de dados. Por exemplo, a não desagregação dos dados por</p><p>gênero, a maior incidência no banco de dados imagético de imagens originadas</p><p>por brancos (maior poder aquisitivo, mais acesso a dispositivos so�sticados,</p><p>maior a probabilidade de gerar imagens de melhor qualidade), a desproporção</p><p>de bases de dados originadas nos Estados Unidos comparativamente a países</p><p>orientais, como China e Índia, que representam parte relevante da população</p><p>mundial.</p><p>O viés surge, igualmente, da falta de diversidade nas equipes de</p><p>desenvolvedores de IA, a maioria composta de cientistas e engenheiros da</p><p>computação, homens brancos de países ocidentais, na faixa etária entre 20 e 40</p><p>anos, com experiências, opiniões e preconceitos similares. Outro aspecto a ser</p><p>considerado é a variação de desempenho dos sistemas entre o ambiente em que</p><p>foi treinado e testado e o ambiente do mundo real.</p><p>Especialistas em IA estão empenhados em identi�car formas de eliminar ou,</p><p>ao menos, mitigar os vieses dos modelos a partir de variadas abordagens, mas</p><p>ainda sem muito êxito. Em paralelo, emergem iniciativas de</p><p>autorregulamentação e de regulamentação da IA.</p><p>Este bloco tem cinco artigos, o primeiro e o terceiro tratam do viés nos</p><p>sistemas de reconhecimento facial, o segundo, do conceito e da prática da ética</p><p>by design, o quarto é sobre a lacuna de dados de gênero, e o quinto é sobre o</p><p>viés na interação homem-máquina por voz.</p><p>Sistemas de vigilância com reconhecimento facial:</p><p>escrutínio e reação das gigantes de tecnologia</p><p>19.6.2020</p><p>Em artigo publicado em abril último pela editora Gallimard, como parte da</p><p>série Tracts de crise (Fôlders de Crise, 21-04-2020), intitulado em português</p><p>“Um festival de incerteza”, o pensador francês Edgar Morin nos oferece uma</p><p>comovente e envolvente re�exão sobre a crise da covid-19.74 Entre os temas</p><p>abordados está a ciência, que, segundo ele, “não tem um repertório de verdades</p><p>absolutas, e suas teorias são biodegradáveis sob efeito de novas descobertas”.</p><p>Morin propõe um debate sobre o antagonismo entre prudência e urgência, e</p><p>seus riscos intrínsecos, alertando para os processos contraditórios que surgem</p><p>em situações de crise: um estimula a imaginação e a criatividade em busca de</p><p>novas soluções, e outro se apega ao passado, tentando minar o novo.</p><p>Pela sua natureza disruptiva, e também por estarem em seus primórdios,</p><p>com limitações de várias naturezas, as tecnologias de inteligência arti�cial estão</p><p>sob escrutínio intenso, entre elas os sistemas de vigilância com reconhecimento</p><p>facial.</p><p>As técnicas de processamento de imagens (redes neurais/deep learning) são</p><p>aplicadas desde a identi�cação de imagens captadas por drones e satélites da</p><p>superfície da Terra até imagens de tomogra�a para diagnóstico de</p><p>contaminação por covid-19, passando pela detecção de pragas na agricultura,</p><p>pelo monitoramento e personalização no trato com o gado, além do uso em</p><p>plataformas online, redes sociais e aplicativos. O mais controverso, contudo,</p><p>tem sido o uso nos sistemas de vigilância. Segundo o Ada Lovelace Institute –</p><p>órgão independente cuja missão é garantir que a IA funcione a favor da</p><p>sociedade –, testes da tecnologia de reconhecimento</p><p>facial em contextos de</p><p>policiamento no Reino Unido relataram mais de 90% de ocorrências</p><p>incorretas.</p><p>Em dezembro de 2019, o relatório Face Recognition Vendor Test (FRVT),</p><p>publicado pelo Instituto Nacional de Padrões e Tecnologia dos Estados Unidos</p><p>(National Institute of Standards and Technology, NIST), descreve e quanti�ca</p><p>os diferenciais demográ�cos para 200 algoritmos de reconhecimento facial de</p><p>quase 100 desenvolvedores, envolvendo mais de 18 milhões de imagens de</p><p>mais de oito milhões de pessoas.75 O relatório encontrou evidências empíricas</p><p>da existência de diferenças demográ�cas na maioria dos algoritmos avaliados,</p><p>com os resultados afetados por viés de etnia, idade e sexo: afro-americanos e</p><p>nativos americanos ilhéus do Pací�co foram identi�cados erroneamente, bem</p><p>como crianças e idosos.</p><p>Em alguns casos, os asiáticos e afro-americanos foram identi�cados com</p><p>erro até 100 vezes mais do que os homens brancos. As maiores taxas de</p><p>precisão foram encontradas entre homens brancos de meia-idade. O NIST</p><p>alertou as autoridades federais sobre os riscos do uso como aplicação da lei de</p><p>segurança nacional em áreas críticas, pedindo expressamente que o governo</p><p>reconsiderasse os planos de utilizar essas tecnologias na proteção de fronteiras.</p><p>O relatório do NIST é mais um elemento de pressão contra as falhas desses</p><p>sistemas, pressão que começa a afetar as gigantes de tecnologia. Em junho</p><p>último, IBM, Microsoft e Amazon anunciaram a limitação do uso de seus</p><p>sistemas de reconhecimento facial pelos departamentos de polícia (nenhuma</p><p>das empresas se pronunciou sobre o uso pelo serviço de Imigração e</p><p>Alfândega).</p><p>Em 8 de junho, a IBM declarou, em carta ao Congresso dos Estados</p><p>Unidos, que não oferecerá mais software de análise ou reconhecimento facial de</p><p>uso geral, e não mais desenvolverá ou pesquisará a tecnologia. “A IBM se opõe</p><p>�rmemente e não tolerará o uso de nenhuma tecnologia de reconhecimento</p><p>facial, incluindo tecnologia de reconhecimento facial oferecida por outros</p><p>fornecedores, para vigilância em massa, per�l racial, violações dos direitos e</p><p>liberdades humanos básicos, ou qualquer �nalidade que não seja consistente</p><p>com nossos valores e princípios de con�ança e transparência. Acreditamos que</p><p>agora é a hora de iniciar um diálogo nacional sobre se, e como, a tecnologia de</p><p>reconhecimento facial deve ser empregada pelas agências policiais nacionais”,</p><p>diz trecho da carta assinada por Arvind Krishna, CEO da IBM.</p><p>Em 10 de junho, a Microsoft anunciou que deixará de vender a tecnologia</p><p>aos departamentos de polícia até que seja promulgada uma lei federal com</p><p>regras de uso, ressaltando seu apoio anterior à legislação californiana sobre a</p><p>proteção à privacidade de dados pessoais que inclui restrições ao uso policial.</p><p>Também em 10 de junho, a Amazon, maior fornecedora da tecnologia para</p><p>�ns de aplicação de leis – sua subsidiária Ring, por exemplo, estabeleceu</p><p>parcerias com mais de 1.300 agências policiais para usar imagens de suas</p><p>câmeras de segurança doméstica em investigações criminais –, surpreendeu</p><p>ativistas e pesquisadores de direitos civis quando anunciou que colocaria uma</p><p>moratória de um ano no uso da Rekognition pela polícia. A decisão resulta de</p><p>dois anos de pesquisa e pressão externa demonstrando as falhas técnicas da</p><p>Rekognition, não apenas por instituições externas, como a Fundação ACLU de</p><p>Washington, que recolheu mais de 150 mil assinaturas de petições contra o</p><p>sistema, mas também pelos próprios funcionários da Amazon, que ecoaram</p><p>num memorando interno as preocupações e protestos externos.</p><p>Alguns fornecedores, cientes de suas limitações, têm se empenhado em</p><p>aperfeiçoar os sistemas, particularmente a questão do viés, como é o caso da</p><p>IBM. Em janeiro de 2019, a empresa lançou um conjunto de dados chamado</p><p>Diversity in Faces, com mais de um milhão de imagens de rostos, mas a</p><p>iniciativa fracassou, ao ser descoberto que as imagens haviam sido retiradas da</p><p>plataforma Flickr sem consentimento dos usuários, provocando novas</p><p>discussões sobre como treinar eticamente os sistemas de reconhecimento facial.</p><p>Retomando Edgar Morin, a urgência em derrotar a covid-19 comprometeu</p><p>a prudência de parte dos pesquisadores em estudos e modelos publicados em</p><p>revistas cientí�cas, algumas com revisões por pares. No caso dos sistemas de</p><p>vigilância com tecnologias de reconhecimento facial, contudo, não se justi�ca</p><p>comprometer a prudência porque não existe urgência.</p><p>Ética by design no desenvolvimento de tecnologias</p><p>3.7.2020</p><p>O Facebook anunciou, em 15 de junho, o lançamento, no Brasil, do</p><p>Facebook Pay, seu novo sistema de pagamentos pelo WhatsApp. Alguns dias</p><p>depois, dia 23, o Banco Central e o Conselho Administrativo de Defesa</p><p>Econômica (Cade) determinaram sua suspensão temporária. Entre as</p><p>preocupações das autoridades brasileiras estão a proteção dos dados pessoais</p><p>gerados no aplicativo, incluindo seu potencial compartilhamento com as três</p><p>redes sociais controladas pela corporação (Facebook, WhatsApp e Instagram), e</p><p>a garantia de que não haja vantagem indevida, que comprometa a livre</p><p>concorrência, frente ao número expressivo de seus usuários</p><p>(consequentemente, de dados). Segundo os envolvidos, o projeto levou dois</p><p>anos para �car pronto, mas, pelas informações divulgadas, aparentemente, não</p><p>atentou na íntegra para as questões éticas associadas ao uso de dados pessoais.</p><p>O modelo econômico que tende a prevalecer no século XXI, orientado por</p><p>dados (data-driven economy), essencialmente, extrai inputs de grandes conjuntos</p><p>de dados com técnicas estatísticas de inteligência arti�cial, com o objetivo de</p><p>personalizar, prever, automatizar e otimizar processos, produtos e serviços.</p><p>Sendo os dados pessoais a base desses modelos de negócio, torna-se mandatório</p><p>contemplar as leis de proteção de dados – LGPD brasileira, GDPR europeia e</p><p>CCPA californiana – que, implicitamente, recomendam a adoção do conceito</p><p>de privacy by design.</p><p>Em geral, os cientistas de tecnologia, seja na academia ou no mercado, não</p><p>atentam para os impactos éticos e sociais dos sistemas que desenvolvem,</p><p>tornando mais complexa a identi�cação, a regulação e a �scalização a posteriori.</p><p>Essa suposta ausência de sensibilidade para as questões éticas esteve no cerne de</p><p>uma polêmica que agitou a comunidade de inteligência arti�cial, ao envolver</p><p>alguns de seus renomados representantes, entre eles o chefe de IA do Facebook,</p><p>Yann LeCun, vencedor do Prêmio Turing como um dos pioneiros da técnica</p><p>de redes neurais profundas (deep learning).</p><p>A polêmica explodiu na conferência Computer Vision and Pattern</p><p>Recognition (CVPR), realizada virtualmente em junho último. Polemizando em</p><p>primeiro plano com LeCun esteve a cientista da computação etíope-americana</p><p>Timnit Gebru, colíder técnica da equipe de inteligência arti�cial ética do</p><p>Google, cujas pesquisas sobre o preconceito de raça e gênero nos sistemas de</p><p>reconhecimento facial têm subsidiado os congressistas norte-americanos a favor</p><p>da proibição pelo governo federal desses sistemas, e in�uenciou, igualmente, as</p><p>decisões da IBM, da Microsoft e da Amazon de interromper seu uso pela</p><p>polícia.76</p><p>A polêmica começou na semana anterior à conferência, quando um</p><p>observador introduziu no PULSE uma foto do ex-presidente Obama, e o</p><p>sistema gerou uma foto de um homem branco; na sequência, o sistema</p><p>transformou Muhammad Ali em branco, traços de mulheres asiáticas em traços</p><p>de mulheres brancas, dentre outras distorções claramente de viés racial. O</p><p>PULSE é um modelo de visão computacional desenvolvido por pesquisadores</p><p>da Universidade de Duke, utilizando redes GANS (generative adversarial</p><p>networks), um tipo de arquitetura de aprendizado de máquina, e cujo algoritmo</p><p>(StyleGAN/Nvidia) foi treinado com dados do Flickr Face HQ; ele cria rostos</p><p>humanos assustadoramente realistas usados em per�s falsos de mídia social.</p><p>O estopim da polêmica foi a declaração de Yann LeCun a essas evidências:</p><p>“Os sistemas de ML (machine learning) são tendenciosos quando os dados são</p><p>tendenciosos”,77 imediatamente contestada por</p><p>diversos especialistas, que o</p><p>acusaram de minimizar o problema ou até mesmo de se isentar da</p><p>responsabilidade (lembrando que o tema do racismo está na pauta nos Estados</p><p>Unidos neste momento, com a ascensão do movimento Black Lives Matter).</p><p>Timnit Gebru convidou LeCun para assistir a seu tutorial GPRR –</p><p>apresentado na abertura da Conferência CVPR –, cuja mensagem central é que</p><p>o viés nos modelos de inteligência arti�cial não pode ser imputado</p><p>exclusivamente aos dados. A polêmica se estendeu por dias nas redes sociais,</p><p>principalmente no Twitter, alcançando tons não recomendados entre</p><p>pesquisadores.</p><p>Diante da repercussão negativa, o chefe de inteligência arti�cial do Google,</p><p>Je� Dean, pediu que a comunidade reconhecesse que o viés vai além dos</p><p>dados, e o vice-presidente de IA do Facebook, Jerome Pesenti, desculpou-se,</p><p>a�rmando ser importante ouvir as experiências de pessoas que sofreram</p><p>injustiça racial.78</p><p>Do ponto de vista estritamente técnico, a resposta de LeCun é em parte</p><p>correta, percentual signi�cativo do preconceito e da injustiça nos sistemas de</p><p>inteligência arti�cial vem da base de dados usada no desenvolvimento do</p><p>modelo, que podem ser, inclusive, ampli�cados no processo posterior de</p><p>treinamento dos algoritmos. As recomendações desses sistemas inteligentes são</p><p>efetivamente in�uenciadas pelos dados tendenciosos, por isso recomenda-se</p><p>que a base de dados utilizada seja criteriosamente avaliada.</p><p>A forte reação de alguns membros importantes da comunidade de IA deve-</p><p>se mais à forma sucinta da resposta; sendo ele um dos líderes da área, esperava-</p><p>se que �zesse ponderações mais amplas, alertando, por exemplo, sobre as</p><p>limitações e distorções dos sistemas, e reconhecesse que, efetivamente, falta</p><p>desenvolvimento técnico para mitigar o potencial viés. Esperava-se,</p><p>igualmente, uma recomendação aos desenvolvedores sobre a necessidade de um</p><p>exame mais cuidadoso da base de dados em busca de sinais de viés ou, como</p><p>alternativa, sobre treinar os algoritmos usando conjuntos maiores e mais</p><p>diversi�cados de dados. Por último, esperava-se que LeCun aconselhasse os</p><p>desenvolvedores a explicitarem que se trata de modelos estatísticos de</p><p>probabilidade, logo seus resultados nunca são 100% assertivos</p><p>(independentemente da base de dados). Ou seja, que ele se portasse como um</p><p>líder da comunidade e �zesse jus a função que desempenha em uma das big</p><p>techs.</p><p>O conceito de “ética by design” deve ser adotado desde o início do</p><p>desenvolvimento dos sistemas de IA, não só pelas implicações éticas do uso de</p><p>dados pessoais, como também pelos impactos sociais em áreas sensíveis à</p><p>sociedade, como trabalho, educação e saúde. Daí a importância de formar</p><p>equipes multidisciplinares com pesquisadores de ciências exatas e humanas,</p><p>oferecendo à sociedade soluções mais amigáveis, menos ameaçadoras, que</p><p>construam igualdades e não desigualdades.</p><p>Surpreendentemente, Londres tem mais câmeras de</p><p>vigilância do que Pequim</p><p>19.2.2020</p><p>Londres é a cidade mais bem avaliada no IESE Cities in Motion (2020),</p><p>índice de avaliação de cidades da Business School of the University of Navarra</p><p>(IESE), Espanha. Prestigiado internacionalmente, o índice é composto de 96</p><p>indicadores, cobrindo 174 cidades de 80 países (79 capitais). Londres,</p><p>contudo, é também a terceira cidade mais vigiada do mundo; entre as</p><p>primeiras 10, nove são chinesas. Pequim ocupa a quinta posição, ou seja, a</p><p>capital da China, país do sistema de crédito social (Social Credit System), tem</p><p>menos câmeras de vigilância proporcionalmente à população do que a cidade</p><p>europeia: são 1,15 milhões de câmeras para uma população de 20 milhões de</p><p>pessoas em Pequim (56,20 câmeras a cada mil habitantes), contra 627.727</p><p>câmeras para uma população de 9,3 milhões de pessoas em Londres (67,47</p><p>câmeras a cada mil habitantes).79</p><p>O londrino médio é �lmado 300 vezes por dia, o que atribui à cidade o</p><p>título de “capital mundial da CCTV” (closed-circuit television). O Estado</p><p>controla uma parte menor do sistema de vigilância: estudo da British Security</p><p>Association indicou uma proporção entre câmeras privadas e públicas de 70</p><p>para 1. Os números tendem a ser maiores porque as câmeras domésticas não</p><p>precisam de registro ICO (Information Commissioner’s O�ce), só as câmeras</p><p>de empresas. Em média, teoricamente as gravações são armazenadas por duas</p><p>semanas.</p><p>Ampliando ainda mais a vigilância, apesar das falhas identi�cadas em anos</p><p>de testes, em janeiro de 2020, o Departamento de Polícia de Londres anunciou</p><p>a incorporação de tecnologias de reconhecimento facial em suas câmeras.</p><p>Embora o objetivo seja localizar suspeitos de terem cometido crimes graves, a</p><p>medida provocou forte reação de grupos contrários à expansão do “Estado de</p><p>Vigilância”, como o Big Brother Watch; o foco dos protestos é a ausência de</p><p>debate público e de regulamentação apropriada. Moradores de cidades com</p><p>histórico de ataques terroristas como Londres, contudo, tendem a ser mais</p><p>benevolentes ao dilema proteção e segurança versus liberdades civis.</p><p>Como amplamente denunciado no âmbito das manifestações do Black Lives</p><p>Matter, em maio de 2020, as tecnologias de reconhecimento facial têm viés de</p><p>etnia, idade e sexo.80 Diversos escrutínios desses sistemas, por parte de centros</p><p>de pesquisa, institutos e grupos de direitos civis, encontraram evidências de</p><p>falhas graves, como a que ocorreu no Rio de Janeiro: em janeiro de 2018, a</p><p>polícia carioca contratou o sistema britânico Facewatch com o propósito de</p><p>identi�car 1.100 criminosos foragidos, que seriam reconhecidos ao cruzar uma</p><p>das câmeras de vigilância espalhadas pela cidade; em 2019, uma mulher foi</p><p>detida em Copacabana e encaminhada à delegacia, onde foi con�rmado que</p><p>não se tratava da criminosa procurada (que, inclusive, estava presa na ocasião).</p><p>O reconhecimento facial é uma das aplicações da técnica de aprendizado de</p><p>máquina, subcampo da inteligência arti�cial, denominada deep learning</p><p>(aprendizado profundo). Considerada uma das áreas mais bem-sucedidas da</p><p>IA, serve a múltiplas tarefas: desde o simples reconhecimento de imagens em</p><p>pesquisas no Google até a interpretação de tomogra�as e a biometria facial,</p><p>substituindo as tradicionais senhas (nem sempre seguras nem fáceis de</p><p>memorizar).</p><p>O fundamento dessa técnica é que o algoritmo “aprende” com base em</p><p>exemplos extraídos dos dados. Para que seus modelos atinjam desempenhos</p><p>aceitáveis, precisam ser treinados em extensas bases de dados, ou seja, a</p><p>precisão do resultado é proporcional ao número e à qualidade dos exemplos</p><p>contemplados no modelo (exemplos contidos nos dados). Seus algoritmos são</p><p>capazes de lidar com dimensões da ordem de grandeza de milhões, por</p><p>exemplo, milhões de pixels numa imagem. Embora denominadas “redes</p><p>neurais”, pela inspiração no funcionamento do cérebro, o sistema visual</p><p>humano transcende em muito o simples reconhecimento do objeto: nosso</p><p>sistema visual é capaz de compreender cenas inteiras, ou seja, captar múltiplos</p><p>objetos de uma cena e a relação entre esses objetos, e processar informações em</p><p>3D.</p><p>A resistência ao uso dos sistemas de reconhecimento facial para vigilância</p><p>decorre, fundamentalmente, de duas limitações intrínsecas à técnica: o viés e a</p><p>opacidade (não explicabilidade). O viés decorre, entre outras origens, da base</p><p>de dados utilizada no treinamento do modelo, que pode ser tendenciosa, ao</p><p>não re�etir a diversidade do universo considerado. Se a base de dados for</p><p>predominantemente de homens brancos, o sistema terá di�culdade de</p><p>reconhecer com precisão, por exemplo, mulheres negras. Um exemplo mais</p><p>simples: um veículo autônomo treinado com dados de uma cidade norte-</p><p>americana não apresentaria o mesmo desempenho nas ruas de uma cidade</p><p>inglesa, onde a direção é no lado esquerdo. A base de dados pode ser enviesada</p><p>por re�etir os preconceitos dos humanos contidos nos dados.</p><p>A opacidade decorre do desconhecimento de como os chamados dados de</p><p>entrada (inputs) geram o dado de saída (output), ou seja, como o sistema</p><p>correlaciona</p><p>os exemplos contidos nos dados. Com enormes recursos</p><p>computacionais e muitos terabytes de dados, o número de recursos possível de</p><p>incluir em um sistema de reconhecimento facial ultrapassa o nível de</p><p>compreensão de um humano racional (incompatibilidade entre o processo</p><p>matemático do aprendizado de máquina com a cognição em escala humana).</p><p>Existem meios de mitigar as limitações da técnica, o que, por um lado,</p><p>requer um empenho dos desenvolvedores desses sistemas e, por outro, uma</p><p>maior familiaridade dos usuários para criticar, checar e ponderar sobre os</p><p>resultados.</p><p>Lacuna de dados de gênero: mulheres invisíveis num</p><p>mundo projetado por homens</p><p>2.4.2021</p><p>O título da coluna reproduz o título do livro Invisible Women: Exposing</p><p>Data Bias in a World Designed for Men (Mulheres invisíveis: expondo o viés dos</p><p>dados num mundo projetado por homens), da escritora, jornalista e ativista</p><p>feminista britânica Caroline Criado Perez. Considerado o Business Book of</p><p>�e Year 2019 pelo Financial Times e pela McKinsey, o livro agrega valiosa</p><p>contribuição para o debate global sobre discriminação de gênero nos modelos</p><p>baseados em inteligência arti�cial. Segundo a autora, a sub-representação de</p><p>50% da população nos bancos de dados implica um registro enviesado da</p><p>história humana.81</p><p>Criado Perez realiza um extenso levantamento histórico da invisibilidade</p><p>feminina. Para a autora, a tendência universal de considerar o homem como</p><p>“padrão humano” gera um viés de gênero nos dados, preserva automaticamente</p><p>a desigualdade e compromete o critério de objetividade. “A partir da teoria do</p><p>homem caçador, os cronistas do passado deixaram pouco espaço para o papel</p><p>das mulheres na evolução da humanidade, seja cultural ou biológica”, pondera</p><p>a autora.</p><p>Como a técnica de inteligência arti�cial que permeia a maior parte das</p><p>aplicações atuais é baseada em dados (machine learning/deep learning), a</p><p>sociedade está tomando decisões enviesadas por gênero em número muito</p><p>maior do que o percebido. Na Inglaterra, por exemplo, as mulheres têm 50%</p><p>mais chances de ser diagnosticadas erroneamente após um ataque cardíaco, em</p><p>função da predominância dos homens nos estudos cientí�cos sobre</p><p>insu�ciência cardíaca.</p><p>No combate à covid-19, a não coleta de dados desagregados por sexo, ao</p><p>não contemplar as distinções sexuais na função imunológica, impacta</p><p>negativamente a identi�cação de sintomas, taxas de contaminação e de</p><p>mortalidade. A taxa de mortalidade da covid-19 é de 2 para 1 entre homens e</p><p>mulheres; sem coleta desagregada, não é possível identi�car a razão, nem ao</p><p>menos saber se os homens têm mais probabilidade de contrair covid-19 ou</p><p>mais probabilidade de morrer de covid-19.</p><p>Criado Perez alerta que, no �nal de março de 2020, apenas seis dos 20</p><p>países mais afetados pela covid-19 estavam publicando dados desagregados por</p><p>sexo, e os Estados Unidos e o Reino Unido só o �zeram plenamente em maio.</p><p>Em setembro de 2020, apenas 30% dos países relataram dados desagregados</p><p>por sexo em relação a contaminação e morte, e menos de 50% dos países</p><p>desenvolvidos publicaram dados desagregados. Ilustrando a importância da</p><p>desagregação, um estudo realizado em 2016, num hospital em Long Island, em</p><p>Nova York, correlacionou o hormônio feminino estrogênio com resultados</p><p>positivos no combate aos vírus em geral; em 2020, na tentativa de salvar vidas,</p><p>esse mesmo hospital chegou a injetar estrogênio em seus pacientes homens</p><p>com covid-19 (os resultados não foram apurados plenamente, ou não são</p><p>públicos).</p><p>A lacuna de dados de gênero está presente também nos estudos climáticos.</p><p>Segundo Criado Perez, até 2007, ano de publicação da primeira pesquisa com</p><p>desagregação por gênero, não existiam dados sobre a disparidade entre homens</p><p>e mulheres na mortalidade por desastres naturais: dados de 141 países, entre</p><p>1981 e 2002, revelaram que as mulheres têm mais probabilidade de morrer em</p><p>desastres naturais do que os homens. As causas são culturais e</p><p>comportamentais: os homens indianos, por exemplo, têm maior probabilidade</p><p>de sobreviver a terremotos noturnos, porque dormem do lado de fora e nos</p><p>telhados nas noites quentes, o que é interditado às mulheres. No Siri Lanka,</p><p>outro exemplo, aprender a nadar e a escalar são prerrogativas dos homens: o</p><p>tsunami de dezembro de 2004 matou quatro vezes mais mulheres do que</p><p>homens.</p><p>O viés de gênero re�ete, em parte, a não diversidade das equipes</p><p>desenvolvedoras de tecnologia: as mulheres representam apenas 11% dos</p><p>desenvolvedores de software, 25% dos funcionários do Vale do Silício e 7% dos</p><p>sócios em empresas de capital de risco. A diversidade não é apenas uma questão</p><p>ética e moral, mas tem vários efeitos inclusive sobre a ciência: análise de 1,5</p><p>milhão de artigos cientí�cos publicados entre 2008 e 2015 constatou que a</p><p>probabilidade de um estudo envolver análise de gênero e sexo correlaciona-se</p><p>com a proporção de mulheres entre seus autores, efeito maior se uma mulher</p><p>for líder do grupo de autores.</p><p>A Unesco, em 2019, em parceria com o governo da Alemanha e a EQUALS</p><p>Skills Coalition (ramo da EQUALS Global Partnership, dedicada a capacitar</p><p>mulheres e meninas na aquisição de habilidades em tecnologia), publicou o</p><p>estudo I’d Blush, If I Could, que aborda a lacuna de gênero nas habilidades</p><p>digitais e compartilha estratégias para reduzir essa lacuna por meio da</p><p>educação. O título do estudo reproduz a resposta-padrão do assistente virtual</p><p>Siri a um insulto: “Eu �caria corada, se pudesse”.82 O estudo observou,</p><p>paradoxalmente, que os países com os níveis mais altos de igualdade de gênero,</p><p>como os países europeus, têm taxas mais baixas de mulheres na pós-graduação</p><p>em Ciências da Computação e campos relacionados; e os países com baixos</p><p>níveis de igualdade de gênero, como os países árabes, têm as maiores</p><p>proporções de mulheres em cursos de tecnologias avançadas.</p><p>Predominam nos assistentes virtuais nomes e vozes femininos, como a</p><p>Alexa, da Amazon, a Siri, da Apple, a Cortana, da Microsoft, e, ainda pior, a</p><p>postura desses assistentes é submissa: o relatório da Unesco constatou, por</p><p>exemplo, que quando um usuário diz à Alexa “Você é gostosa”, a resposta</p><p>automática é: “É legal da sua parte dizer isso!”. A codi�cação dos preconceitos</p><p>em produtos de tecnologia perpetua o preconceito de gênero da sociedade.</p><p>“Como a fala da maioria dos assistentes de voz é feminina, isso envia um sinal</p><p>de que as mulheres são ajudantes prestativas, dóceis e ansiosas por agradar,</p><p>disponíveis ao toque de um botão ou a um comando de voz direto como ‘Hey’</p><p>ou ‘OK’”, pondera o relatório.</p><p>Os assistentes virtuais não têm poder de ação, honram comandos e</p><p>respondem a perguntas independentemente de seu tom ou hostilidade,</p><p>reforçando os preconceitos de gênero comumente aceitos de que as mulheres</p><p>são subservientes e tolerantes a um tratamento inadequado. A Unesco adverte</p><p>que a presença desses assistentes virtuais nos lares mundo afora tem o potencial</p><p>de in�uenciar as interações com mulheres reais, e ressalta: “Quanto mais essa</p><p>cultura ensinar as pessoas a igualar as mulheres às assistentes, mais as mulheres</p><p>reais serão vistas como assistentes – e penalizadas por não serem como as</p><p>assistentes”.</p><p>O relatório repercutiu intensamente na mídia, com artigos publicados em</p><p>jornais de grande circulação, como �e New York Times,83 �e Guardian,84 Le</p><p>Monde,85 El País,86 O Globo,87 entre outros. Provavelmente como reação ou</p><p>mera coincidência, a Apple anunciou que a partir do iOS 14.5 o usuário</p><p>poderá escolher a voz da Siri ao se cadastrar no sistema.</p><p>Allison Gardner, cofundadora da Women Leading in AI, organização</p><p>dedicada a promover a diversidade e a boa governança em IA, reconhece que</p><p>nem sempre o preconceito é malicioso – em geral resulta da falta de</p><p>consciência de que o preconceito existe – e atribui parte da causa à não</p><p>diversidade das equipes de desenvolvedores, uma das barreiras da ética by</p><p>design.</p><p>A interação humano-máquina por voz é</p><p>potencialmente inclusiva, mas na prática tem sido</p><p>discriminatória</p><p>3.9.2021</p><p>O jornal �e Washington Post, em 2018, reuniu um grupo de pesquisadores</p><p>para</p><p>investigar o efeito de distintos sotaques na interação com sistemas de voz</p><p>baseados em inteligência arti�cial; foram testados milhares de comandos de voz</p><p>ditados por mais de 100 pessoas em quase 20 cidades norte-americanas. Os</p><p>resultados indicaram disparidades relevantes: quando Meghan Cruz diz “Hi,</p><p>Alexa”, sua Alexa Amazon oferece de imediato a resposta solicitada, contudo,</p><p>quando Andrea Moncada, estudante universitária criada na Colômbia, diz o</p><p>mesmo em seu leve sotaque espanhol, a Alexa nem se manifesta.</p><p>A ativação por voz tende a prevalecer na interface com os dispositivos</p><p>digitais, “mas para pessoas com sotaque os sistemas inteligentes de voz podem</p><p>parecer desatentos e indiferentes. Para muitos norte-americanos, a onda do</p><p>futuro tem um problema de discriminação e os está deixando para trás”,</p><p>conclui o estudo.88 Ou seja, uma tecnologia potencialmente inclusiva, em</p><p>particular no Brasil, onde cerca de 30% da população é classi�cada como</p><p>analfabeta funcional, está sendo excludente na prática.</p><p>Estudos realizados por pesquisadores da Universidade de Stanford, com base</p><p>em dispositivos da Amazon, IBM, Google, Microsoft e Apple, acusaram que os</p><p>sistemas de reconhecimento de voz automatizados com inteligência arti�cial</p><p>(automatic speech recognition, ASR), em média, apresentam taxa de erro de</p><p>palavra de 0,35 para falantes negros em comparação com 0,19 para falantes</p><p>brancos.89 Os efeitos são perversos, considerando-se a variedade de aplicativos</p><p>de conversão da linguagem falada em texto: assistentes virtuais, preenchimento</p><p>de registros médicos por voz, tradução automática, entrevistas online</p><p>automatizadas nos processos de seleção de candidatos a emprego, entre</p><p>inúmeros outros aplicativos.</p><p>Nesse estudo, os sistemas foram testados com mais de 2 mil amostras de</p><p>entrevistas gravadas com afro-americanos e brancos – amostras de fala negra</p><p>foram retiradas do Corpus of Regional African American Language</p><p>(CORAAL), e as de fala branca, de entrevistas conduzidas pelo Voices of</p><p>California. O estudo constatou que essas disparidades étnicas são resultantes</p><p>das características fonológicas, fonéticas ou prosódicas (aspectos dos sons da</p><p>fala, como acentuação e entonação) do inglês afro-americano, e não das</p><p>características gramaticais ou lexicais. Uma limitação do estudo é que as</p><p>amostras de áudio de falantes brancos e negros vieram de diferentes áreas</p><p>geográ�cas do país – as primeiras, coletadas na Califórnia, e as últimas, no leste</p><p>dos Estados Unidos –, logo é possível que algumas das diferenças identi�cadas</p><p>sejam consequência da variação linguística regional, e não étnica.</p><p>As variações de sotaque, dizem os engenheiros, representam um dos maiores</p><p>desa�os para as empresas que trabalham no desenvolvimento de sistemas de</p><p>reconhecimento de voz. Um grupo de pesquisadores brasileiros – Lanna Lima,</p><p>Elizabeth Furtado e Vasco Furtado, da Universidade de Fortaleza, e Virgílio</p><p>Almeida, da Universidade Federal de Minas Gerais – analisou a presença de</p><p>vieses na interação via áudio, por meio de um experimento da Universidade de</p><p>Fortaleza, conduzido em laboratório com 20 voluntários interagindo com o</p><p>Google Assistant e a Siri, da Apple.90 “O estudo apresenta uma análise</p><p>preliminar, indicando que o processo de formação de assistentes de</p><p>smartphones, para o português brasileiro, pode ser tendencioso para vozes de</p><p>indivíduos da parte mais desenvolvida do país”, concluem os autores.</p><p>A origem da disparidade está principalmente na base de dados tendenciosa</p><p>utilizada para treinar esses sistemas (predominantemente, norte-americanos</p><p>brancos), quando deveria re�etir a diversidade de sotaques e dialetos, ou seja,</p><p>representar a composição proporcional do universo objeto em questão</p><p>(diversi�cado em relação às subpopulações). Considera-se que existe um</p><p>enviesamento na base de dados quando o sistema exibe um erro sistemático no</p><p>resultado (“enviesamento estatístico”). O desempenho dos sistemas varia</p><p>quando eles saem do ambiente controlado em que são treinados e testados,</p><p>com dados “higienizados” dos laboratórios, e passam a usar os dados do mundo</p><p>real; essas diferenças impactam fortemente a acurácia dos resultados.</p><p>O viés, contudo, também pode emergir de decisões tomadas pelos</p><p>desenvolvedores (os atributos e variáveis contemplados no modelo, inclusive,</p><p>determinam a seleção dos dados). No desenvolvimento de um sistema de IA</p><p>com a técnica de redes neurais profundas (deep learning), a tarefa inicial dos</p><p>cientistas da computação é identi�car o problema a ser resolvido, em qual</p><p>situação e com qual objetivo o sistema será utilizado; o passo seguinte é</p><p>traduzir esse problema a ser resolvido em variáveis que possam ser computadas</p><p>(hiperparâmetros). Identi�car a in�uência da subjetividade humana na</p><p>elaboração do sistema e na con�guração do algoritmo de inteligência arti�cial</p><p>não é trivial, além de não ser possível eliminá-la completamente, mesmo se e</p><p>quando identi�cada.</p><p>O Alan Turing Institute sinaliza como um problema crítico a postura dos</p><p>desenvolvedores e designers de algoritmos de IA que permite que os vieses</p><p>sistêmicos se in�ltrem nos dados. Na perspectiva do instituto, o problema</p><p>deriva da não priorização de ações para identi�car e corrigir desequilíbrios</p><p>potencialmente discriminatórios por parte dos produtores de tecnologia, em</p><p>geral, predominantemente homens brancos, logo, isentos dos efeitos adversos</p><p>de resultados discriminatórios.91</p><p>Brian Christian, no livro �e Alignment Problem: Machine Learning and</p><p>Human Values92 (Problema de alinhamento: aprendizado de máquina e valores</p><p>humanos), pondera que a última década presenciou “o progresso mais</p><p>estimulante, abrupto e preocupante na história do aprendizado de máquina –</p><p>e, de fato, na história da inteligência arti�cial. Há um consenso de que uma</p><p>espécie de tabu foi quebrado: não é mais proibido aos pesquisadores de IA</p><p>discutir questões de segurança”. Christian identi�ca duas comunidades</p><p>distintas preocupadas com as externalidades negativas dos sistemas de</p><p>inteligência arti�cial: a primeira, com foco nos riscos éticos atuais da</p><p>tecnologia, e a segunda, preocupada com os riscos futuros. Ambos os cenários</p><p>não podem ser abordados dentro dos campos disciplinares tradicionais, mas</p><p>apenas através do diálogo entre cientistas da computação, cientistas sociais,</p><p>advogados, reguladores, especialistas em políticas, especialistas em ética. Os</p><p>efeitos da “discriminação algorítmica” são perversos, contribuem para ampliar a</p><p>já imensa desigualdade global.</p><p>A</p><p>informação é um componente essencial no funcionamento dos merca- dos.</p><p>Informação de qualidade tende a aumentar a e�ciência e reduzir os custos,</p><p>consequentemente, dota as empresas ricas em dados de vantagem</p><p>competitiva em relação aos seus concorrentes, aumenta as barreiras à entrada</p><p>de novos concorrentes e amplia a assimetria informacional entre empresas e</p><p>entre empresas e usuários/consumidores. A vantagem competitiva está,</p><p>particularmente, na personalização da comunicação e dos preços de produtos e</p><p>serviços com base no per�l do usuário/consumidor. A coleta e análise dos</p><p>dados pessoais permite às empresas identi�car quais fatores impulsionam o</p><p>desejo de compra do consumidor e, inclusive, qual o valor máximo que ele</p><p>estaria disposto a pagar, processo denominado “discriminação</p><p>comportamental” (reduz o “excedente do consumidor”, ou seja, o potencial</p><p>ganho obtido pelo consumidor na comparação de preços).</p><p>A hiperconectividade da sociedade, consequentemente, a digitalização da</p><p>vida (“dati�cação”), altera os pilares estruturais da economia, atribuindo papel</p><p>crítico aos dados. Os modelos de negócio baseados em dados (data-driven</p><p>business models) são caracterizados pela capacidade de coletar cada vez mais</p><p>dados sobre nosso comportamento e nossas preferências, criar per�s sobre nós,</p><p>personalizar induções e recalibrar com base em nossas interações/respostas.</p><p>Esses modelos têm o potencial de aumentar o consumo e otimizar a extração</p><p>de riqueza, contudo, afetam valores valiosos,</p><p>como privacidade, igualdade e</p><p>justiça.</p><p>Na Economia de Dados, a e�ciência corporativa é função do grau de</p><p>sociabilidade. Na nova lógica, quanto mais interação entre os indivíduos, ou</p><p>seja, sua sociabilidade e comunicação, mais geração de dados pessoais, mais</p><p>e�ciência operacional.</p><p>Neste bloco temos oito artigos que versam sobre as grandes plataformas de</p><p>tecnologia, os desa�os do capitalismo de dados, o dilema entre conveniência e</p><p>“pesadelo orwelliano”, o signi�cado de Lina Khan como presidente da FTC. O</p><p>terceiro artigo trata do polêmico documentário O dilema das redes.</p><p>Tecnologia gratuita em troca de seus dados: o melhor</p><p>e o pior do capitalismo em um simples swap</p><p>29.11.2019</p><p>A chamada “Economia de Dados”, que tende a ser o modelo econômico</p><p>predominante no século XXI, caracteriza-se por modelos de negócio baseados</p><p>em dados (data-driven business models), ou seja, na capacidade de identi�car</p><p>nos dados padrões, preferências e hábitos dos usuários/consumidores/clientes.</p><p>Em geral, as informações são extraídas por meio de modelos de inteligência</p><p>arti�cial. O uso de dados pessoais para �nalidades comerciais, contudo, é</p><p>anterior às tecnologias de IA.</p><p>O supermercado inglês Tesco, em 1993, lançou o cartão Clubcard. A troca</p><p>era simples: a cada compra, o cliente registrava o cartão no caixa, recebendo</p><p>pontos de desconto para uso em futuras compras, e em contrapartida</p><p>autorizava a coleta de seus dados pessoais (basicamente nome, valor e data da</p><p>compra). Essa limitada base de dados trouxe insights sobre o comportamento</p><p>de compra dos clientes, promovendo estratégias de marketing inovadoras que</p><p>contribuíram para transformar a Tesco em líder do setor no Reino Unido.</p><p>Na década seguinte, em 2002, a loja de descontos norte-americana Target</p><p>desenvolveu um modelo estatístico para investigar padrões na base de dados de</p><p>seus clientes, o que gerou um evento polêmico, frequentemente citado como</p><p>ilustrativo da ameaça à privacidade do uso dos dados pessoais: a varejista criou</p><p>um algoritmo para classi�car a probabilidade de uma cliente estar grávida; se</p><p>essa probabilidade ultrapassasse certo limite, em torno de 87%, o sistema</p><p>enviava automaticamente à cliente cupons de produtos a�ns (fraldas,</p><p>hidratantes e loções mais suaves, chupetas). Certo dia, o pai de uma</p><p>adolescente invadiu uma das lojas da Target, em Minneapolis, reclamando de</p><p>que sua �lha, de apenas 16 anos, tinha recebido os “cupons de gravidez”. O</p><p>gerente se desculpou de imediato. Tempos depois foi a vez de o pai da</p><p>adolescente se desculpar: a �lha estava efetivamente grávida. Ou seja, a varejista</p><p>Target soube da gravidez antes de sua família (especula-se que mesmo antes da</p><p>própria adolescente!). O ocorrido foi narrado em artigo de Charles Duhigg no</p><p>jornal �e New York Times e no livro O poder do hábito, do mesmo autor.93</p><p>Os resultados bem-sucedidos dos modelos de redes neurais –</p><p>automaticamente “varrem” a base de dados e identi�cam, através de modelos</p><p>estatísticos e algoritmos de inteligência arti�cial, tendências e cenários futuros e</p><p>a probabilidade de cada um deles acontecer – trouxeram um grau de</p><p>assertividade inédito aos processos (em alguns casos perto de 90-95%). Mais</p><p>do que as tecnologias, os dados são os ativos valiosos e, em parte, explicam o</p><p>poder e o domínio de mercado das big techs (gigantes de tecnologia: Amazon,</p><p>Apple, Facebook, Microsoft, IBM, Google, Alibaba, Baidu e Tencent).</p><p>Um dos efeitos positivos das recentes leis de proteção de dados – a General</p><p>Data Protection Regulation (GDPR), em vigência na Europa desde maio de</p><p>2018, e a Lei Geral de Proteção de Dados (LGPD), do Brasil, prevista para</p><p>entrar em vigor em agosto de 2020 – foi ampliar o debate, consequentemente a</p><p>visibilidade, sobre o uso dos dados pessoais. Estamos todos mais atentos e</p><p>resistentes a pedidos não justi�cados de informações, como CPF em farmácias,</p><p>telefone e CPF em cadastro na portaria de prédios, entre inúmeras outras</p><p>solicitações não relacionadas ao “legítimo interesse” daquela atividade</p><p>comercial.</p><p>Em geral, um dado isolado pode não ter a capacidade de provocar danos ao</p><p>seu proprietário, no entanto, quando combinado com outros dados, pode</p><p>causar sérios problemas, até mesmo destruir reputações. Esse é um dos focos</p><p>dos chamados data brokers (corretores de dados): combinar vários dados</p><p>cruzando distintas referências, para em seguida compartilhá-los e/ou</p><p>comercializá-los.</p><p>Alguns data brokers são empresas de grande porte. A Palantir Technologies,</p><p>por exemplo, é uma das startups de maior sucesso no Vale do Silício; fundada</p><p>em 2003, vale atualmente cerca de 20 bilhões de dólares. Existem muitas</p><p>outras, como Acxiom, CoreLogic, Datalogix, eBureau, que atuam “nos</p><p>bastidores”, com as quais não interagimos diretamente, mas que monitoram e</p><p>analisam continuamente nosso comportamento no ambiente digital.</p><p>Como adverte a matemática Hannah Fry, em Hello World: Being Human in</p><p>the Age of Algorithms (Olá, mundo: sendo humano na era dos algoritmos), a</p><p>prática prolifera em muitos países onde não existem as leis de proteção de</p><p>dados.94 Nos Estados Unidos, por exemplo, o governo de Donald Trump</p><p>impôs um retrocesso: em março de 2017, o Senado votou pela eliminação das</p><p>regras que impediam os data brokers de vender os dados de usuários sem o seu</p><p>consentimento explícito. Essas regras haviam sido aprovadas em outubro de</p><p>2016 pela Comissão Federal de Comunicações, agência independente criada</p><p>para regular as comunicações interestaduais por rádio, wire, televisão, satélite e</p><p>cabo.</p><p>O dilema privacidade versus conveniência parece, de certa forma, superado.</p><p>Estamos cada vez mais aceitando trocar nossos dados por serviços, desde que</p><p>com benefícios explícitos – Google, Waze, Uber, Facebook e muitos outros. O</p><p>paradoxo é que expressamos preocupação com a privacidade e,</p><p>simultaneamente, adotamos massivamente esses serviços baseados na coleta e</p><p>no uso de dados pessoais.</p><p>Benefícios e ameaças da automação inteligente do</p><p>varejo</p><p>10.1.2020</p><p>Desde 2016, a varejista chinesa Alibaba investe pesado no conceito de new</p><p>retail (novo varejo), termo cunhado pelo seu fundador, Jack Ma, para de�nir</p><p>um ecossistema que combina os canais online e o�ine. No supermercado</p><p>futurista do grupo, Hema Xiansheng, inaugurado em 2015, o pagamento é</p><p>automático e processado por reconhecimento facial (tecnologia de inteligência</p><p>arti�cial).</p><p>Seu competidor norte-americano, a Amazon, em 2018 inaugurou a</p><p>mercearia Amazon Go, em Seattle, onde o cliente transita pela loja, põe os</p><p>produtos na sacola e vai embora; um aplicativo baixado previamente no celular</p><p>registra as compras e os pagamentos sem qualquer interferência humana. O</p><p>foco de ambos é a conveniência do consumidor (sem caixas, sem �las, mais</p><p>facilidade e agilidade).</p><p>As tecnologias digitais estão invadindo o varejo mundo afora, extrapolando</p><p>as funções de meios de pagamento. A North Face – principal fornecedora</p><p>mundial de vestuário, equipamentos e calçados – oferece um sistema de</p><p>compras online interativo: o cliente, por meio do processamento de linguagem</p><p>natural (IA), recebe recomendações personalizadas em conversa com o</p><p>“vendedor”. Desenvolvido em parceria com a provedora de serviços Fluid e o</p><p>Watson-IBM, as conversas geram dados que são transformados em insights para</p><p>melhorar a experiência de consumo. O intuito é replicar nas plataformas</p><p>eletrônicas a função do balconista de loja.</p><p>No Brasil, essas tecnologias estão sendo incorporadas no e-commerce e nas</p><p>lojas físicas. Os mais visíveis são os totens de autoatendimento; o grupo GPA,</p><p>por exemplo, já instalou 180 self-checkouts em 23 lojas das bandeiras Pão de</p><p>Açúcar e Extra (20% do faturamento total dessas lojas). O Magazine Luiza,</p><p>outro exemplo, inspirado nas lojas da Apple, transformou seus vendedores</p><p>também em “caixas” (executam a operação �nanceira), sistema implantado em</p><p>100% das unidades Magalu. Segundo especialistas, essas facilidades tendem a</p><p>reduzir em 30% o tempo do consumidor nas lojas. A automação do varejo,</p><p>aparentemente,</p><p>é uma tendência inexorável, exatamente por facilitar a vida do</p><p>consumidor, que festeja as novidades.</p><p>Como nas demais implementações (saúde, educação, redes sociais, pesquisa,</p><p>produção), as tecnologias inteligentes aportam inestimáveis benefícios e</p><p>grandes desa�os. No caso do varejo, o efeito negativo imediato é a eliminação</p><p>de funções até então exercidas por trabalhadores humanos. Dos 16 milhões de</p><p>postos de trabalho criados no Brasil entre 2003 e 2016, cerca de 9,2 milhões</p><p>(70%) estão em risco, segundo estudo do Laboratório do Futuro, do Instituto</p><p>Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de Engenharia da</p><p>Universidade Federal do Rio de Janeiro (Coppe-UFRJ). Independentemente</p><p>dos números estimados, que variam conforme a metodologia da pesquisa, o</p><p>consenso é de que as funções de baixa quali�cação são as primeiras a ser</p><p>substituídas pela automação inteligente (em geral, não por coincidência, são as</p><p>mais numerosas e associadas ao “primeiro emprego”, o que tem impacto direto</p><p>nos jovens).</p><p>Relatório do Fórum Econômico Mundial, de setembro de 2018, sobre o</p><p>futuro do trabalho estima que até 2022 a mudança na divisão do trabalho</p><p>entre humanos e máquinas/algoritmos afetará 75 milhões de cargos.</p><p>Atualmente, nos setores cobertos pelo estudo do relatório, em média 71% do</p><p>total de horas de tarefas são realizados por humanos, em comparação com 29%</p><p>por máquinas/algoritmos; em 2022, essa média deve mudar para 58% de horas</p><p>de tarefas executadas por seres humanos e 42% por máquinas/algoritmos.</p><p>As ameaças, contudo, não estão restritas ao potencial desemprego e ao</p><p>aumento da desigualdade: as tão propagadas novas funções demandam certo</p><p>nível de especialização e formação que a maior parte dos trabalhadores não</p><p>possui, aumentando a competição pelas funções menos quali�cadas, o que</p><p>implica redução salarial e, consequentemente, de renda.</p><p>A base do funcionamento da economia do século XXI está nos dados (e não</p><p>nos modelos/algoritmos de inteligência arti�cial), responsáveis pelo atual poder</p><p>e concentração de mercado das big techs (as gigantes de tecnologia), e</p><p>gradativamente estender esse poder a todas as organizações públicas e privadas</p><p>com capacidade de gerar, armazenar e minerar grandes quantidades de dados</p><p>para extrair informações valiosas sobre quase tudo. Do uso dos dados derivam</p><p>questões como proteção à privacidade dos usuários, so�sticação dos</p><p>mecanismos de persuasão (comunicação hipersegmentada e assertiva), controle</p><p>excessivo por corporações e governos.</p><p>A complexidade desses modelos não recomenda análises e soluções</p><p>simplistas baseadas em poucas variáveis ou em raciocínio dualista (bem e mal).</p><p>Os modelos de inteligência arti�cial que estão permeando as atividades</p><p>socioeconômicas aportam benefícios extraordinários e, simultaneamente, sérias</p><p>ameaças. O desa�o posto à sociedade é como conciliar ambos os efeitos.</p><p>Documentário O dilema das redes: a polêmica da vez</p><p>25.9.2020</p><p>O documentário O dilema das redes (2020), de Je� Orlowski, lançado pela</p><p>Net�ix, é um manifesto-denúncia, inserido num movimento que convoca para</p><p>a ação de mudar o modo como a tecnologia é projetada, regulamentada e</p><p>usada, visando alinhá-la com “os interesses das pessoas, e não com os lucros”.</p><p>O documentário trata de questões sensíveis, provocando debates acalorados em</p><p>distintos fóruns, o que por si só justi�ca sua produção. A natureza viciante das</p><p>mídias sociais é um problema a ser enfrentado pelos pais e educadores,</p><p>particularmente dos adolescentes.</p><p>É mandatório conhecer a dinâmica dos mecanismos das redes sociais, mas é</p><p>igualmente importante ponderar sobre alguns dos problemas do documentário:</p><p>o protagonismo absoluto da tecnologia, quando inúmeras outras variáveis são</p><p>corresponsáveis por cada uma das questões abordadas; a atribuição ao modelo</p><p>de negócio das plataformas digitais a responsabilidade por males da sociedade</p><p>contemporânea, inclusive alguns anteriores à internet e às redes sociais; e,</p><p>provavelmente proposital, a parte �ccional exagera e deforma o funcionamento</p><p>dos algoritmos de inteligência arti�cial (personalização não é sinônimo de</p><p>individualização). Paira no ar a dicotomia entre o bem e o mal: big techs</p><p>(vilões) versus outros setores e usuários (vítimas inocentes).</p><p>O modelo de negócio dessas plataformas é captar e extrair informações dos</p><p>dados dos usuários e oferecer aos anunciantes a possibilidade de comunicar</p><p>suas mensagens (anúncios publicitários) de forma hipersegmentada, a partir de</p><p>um conhecimento relativamente mais profundo do comportamento de seus</p><p>usuários. Esse é o elo comum entre o Google e o Facebook, ambos monetizam</p><p>os dados da movimentação de seus usuários (no último trimestre de 2019, de</p><p>96,8% da receita do Facebook veio dos anúncios, e 3/4 destes são anúncios de</p><p>pequenas e médias empresas). A maior parte das críticas do documentário é</p><p>direcionada às redes sociais, o que não é o caso do Google. Não por acaso, o</p><p>Facebook é atualmente a maior empresa de mídia, e sua plataforma móvel</p><p>(celular) entrega os mais e�cientes resultados do mercado (investimento de</p><p>mídia versus retorno).</p><p>Os dados são a matéria-prima desses modelos de negócio; logo, o tempo de</p><p>permanência e a intensidade da interação nas plataformas são elementos-chave:</p><p>quanto maior a interação, mais dados são gerados e minerados, melhor a</p><p>assertividade da hipersegmentação oferecida aos anunciantes, maior o</p><p>faturamento. As grandes empresas de tecnologia são a parte mais visível da</p><p>Economia de Dados, mas não a única; o uso do big data e de modelos</p><p>preditivos de inteligência arti�cial, gradativamente, dissemina-se na sociedade.</p><p>Não existem evidências de manipulação com �ns políticos ou ideológicos</p><p>por parte das plataformas tecnológicas, aparentemente o que ocorreu nas</p><p>eleições foi o uso do Facebook pelas campanhas como qualquer cliente ou</p><p>anunciante: compra da hipersegmentação para direcionar a publicidade</p><p>política. A solução, nesse caso, poderia ser regulamentar as campanhas</p><p>eleitorais, proibindo as redes sociais de oferecer a hipersegmentação para</p><p>�nalidades eleitorais.</p><p>Yochai Benkler, Robert Faris e Hal Roberts analisaram exaustivamente o</p><p>processo eleitoral norte-americano de 2016 no livro Network Propaganda</p><p>(Propaganda em rede).95 Com base em pesquisas empíricas, os autores inferem</p><p>que a manipulação nas redes sociais não foi decisiva na eleição de Donald</p><p>Trump, e que a polarização política decorre da dinâmica do ecossistema de</p><p>mídia norte-americano. Para eles, o “culpado” dos males atuais não é a</p><p>tecnologia, e os autores apontam o equívoco de governos, organizações da</p><p>sociedade civil, acadêmicos e mídia que, ao tentarem entender o que está</p><p>impulsionando a mudança global, atribuem o papel de vilão à tecnologia por</p><p>ser o elemento novo no cenário. “A tecnologia nos permitiu analisar milhões de</p><p>histórias publicadas em um período de três anos. A tecnologia nos permitiu</p><p>analisar milhões de tweets e links e centenas de milhões de compartilhamentos</p><p>e palavras do Facebook para dar sentido a essas histórias. E, no entanto, toda</p><p>essa pesquisa habilitada pela tecnologia nos afastou da tecnologia como a</p><p>principal variável explicativa de nossa atual crise epistêmica”, ponderam os</p><p>autores.</p><p>O papel da tecnologia e da técnica é um dos temas mais debatidos na</p><p>história da humanidade. A concepção que predominou ao longo de grande</p><p>parte da história do Ocidente foi a visão instrumental da tecnologia de</p><p>Aristóteles – qualquer técnica envolve uma criação, e a origem do que será</p><p>gerado pelo exercício dessa técnica está localizado no fabricante, isto é, no</p><p>homem, e não no produto, seres arti�ciais inferiores.</p><p>Dois �lósofos do século XX, Gilbert Simondon e Martin Heidegger,</p><p>ofereceram novas perspectivas, quebrando a supremacia interpretativa de</p><p>Aristóteles. Em 1958, Simondon agrupou a relação com a técnica em duas</p><p>atitudes culturais contraditórias: de um lado, os objetos técnicos são tratados</p><p>como puro conjunto de materiais, destituído de qualquer signi�cação,</p><p>representando apenas um utilitário; e de outro, supõe-se que eles</p><p>sejam</p><p>animados de intenções hostis ao homem, representando uma permanente e</p><p>perigosa ameaça de agressão, uma insurreição.96 Trata-se da idolatria da</p><p>máquina, que atribui a esses objetos uma existência separada, autônoma. A</p><p>segunda perspectiva assemelha-se às “tecnorreligiões” apontadas por Yuval</p><p>Harari em seu livro Homo Deus, particularmente o dataísmo, originado no Vale</p><p>do Silício, em que os humanos gradativamente perdem relevância. Nem neutra</p><p>nem determinista, no estágio atual a tecnologia é um elemento facilitador e</p><p>alavancador de estratégicas de�nidas pelos humanos. Algumas positivas, outras</p><p>nem tanto.</p><p>Os mecanismos de persuasão, outro tema central do documentário, não são</p><p>novidade; a dimensão persuasiva da publicidade é pura expressão desses</p><p>mecanismos. Os publicitários se cercam de pro�ssionais especializados no</p><p>entendimento do consumidor, em traçar o per�l do target visando criar uma</p><p>comunicação capaz de interferir nas decisões de consumo, seja de informação,</p><p>produto ou serviço. A propaganda por décadas in�uenciou e gerou novos</p><p>hábitos, novos comportamentos, com impactos culturais tremendos. O</p><p>objetivo de qualquer empresa capitalista é monetizar a interação com os seus</p><p>consumidores. A propaganda foi essencial no desenvolvimento do capitalismo</p><p>industrial, e a hipersegmentação é essencial no capitalismo de dados.</p><p>O campo da engenharia comportamental é anterior à publicidade, à</p><p>internet, às redes sociais, aos algoritmos de IA. Burrhus Frederic Skinner, já nos</p><p>anos 1930-1940, acreditava que os humanos poderiam ser condicionados</p><p>como qualquer outro animal, e que a psicologia comportamental poderia e</p><p>deveria ser usada para construir uma utopia tecnológica em que os cidadãos</p><p>seriam treinados desde o nascimento. Shoshana Zubo�, presente no</p><p>documentário, crê que essas plataformas tenham aperfeiçoado e</p><p>complementado as ideias de Skinner.97</p><p>O laboratório da Universidade de Stanford, Stanford Persuasive Tech Lab,</p><p>onde o protagonista do documentário, Tristan Harris, estudou foi criado em</p><p>1998 por B. J. Fogg. Seu propósito é gerar insights para desenvolver tecnologias</p><p>aptas a mudar as crenças, os pensamentos e os comportamentos dos indivíduos</p><p>de maneira previsível. Os estudos incluem design, pesquisa, ética e a análise de</p><p>produtos de computação interativa – computadores, celulares, websites,</p><p>tecnologias sem �o, aplicativos móveis, videogames. Em artigo de 1998, Fogg</p><p>de�ne persuasão “como uma tentativa de moldar, reforçar ou mudar</p><p>comportamentos, sentimentos ou pensamentos sobre um problema, objeto ou</p><p>ação”.98</p><p>O documentário cumpre a tarefa de alertar para os potenciais impactos</p><p>negativos dos modelos de negócio baseados em dados, entre eles a</p><p>concentração de mercado das big techs, mas é importante identi�car o que</p><p>mudou por conta do big data e dos modelos de inteligência arti�cial, e não</p><p>esquecer que o “tempo livre” gerado com os avanços conquistados na segunda</p><p>metade do século XX foi dedicado à televisão. Como lembra Clay Shirky, em A</p><p>cultura da participação,99 “desde a década de 1950, em todo o mundo</p><p>desenvolvido, as três atividades mais comuns são trabalhar, dormir e ver TV”.</p><p>Outro ponto de re�exão é que as tecnologias dessas plataformas entregam, em</p><p>parte, o que os usuários querem receber, caso não fosse assim, não haveria uma</p><p>adesão tão intensa e extensa.</p><p>Como a�rma um dos entrevistados: “Vivemos a utopia e a distopia ao</p><p>mesmo tempo”, daí advém a complexidade, por isso não há solução fácil. Nos</p><p>países líderes no uso da IA, não por coincidência, até agora proliferam somente</p><p>diretrizes e princípios gerais.</p><p>“Estado-Plataforma”: o poder das big techs</p><p>6.11.2020</p><p>Cresce o desconforto com o controle dos novos espaços públicos pela esfera</p><p>privada, particularmente pelas redes sociais. O mundo está mais sensível a</p><p>questões como privacidade, mediação e personalização de conteúdo na</p><p>internet. Os protestos do movimento Black Lives Matter, após o assassinato de</p><p>George Floyd pela polícia de Minneapolis, nos Estados Unidos, deram</p><p>visibilidade aos algoritmos discriminatórios dos sistemas de vigilância usados</p><p>pelos departamentos de polícia, o que levou à suspensão temporária dos</p><p>contratos com a Amazon, a Microsoft e a IBM. A pressão sobre as gigantes de</p><p>tecnologia tem aumentado desde a eleição presidencial norte-americana de</p><p>2016, com as revelações da Cambridge Analytica.</p><p>O �lósofo francês Pierre Lévy, em entrevista ao Valor Econômico, alerta que</p><p>as big techs passaram a deter o monopólio da memória mundial, e alerta: “Elas</p><p>estão desenhando uma nova forma de poder econômico, o que é evidente, mas</p><p>sobretudo político. Muitas funções sociais e políticas, que são funções</p><p>tradicionais dos Estados-nação, estão passando para essas companhias. Na</p><p>minha avaliação, é uma nova forma de Estado, que eu denomino Estado-</p><p>Plataforma”.100</p><p>Em 20 de outubro, o Departamento de Justiça dos Estados Unidos e 11</p><p>estados norte-americanos entraram com uma ação contra o Google por</p><p>concorrência desleal, alegando “operação casada” do seu mecanismo de busca</p><p>com contratos de fabricantes de dispositivos móveis. Na visão da Justiça norte-</p><p>americana, essa associação prejudica os consumidores ao privá-los da</p><p>prerrogativa de escolha de concorrentes. O último caso de aplicação da lei</p><p>antitruste norte-americana foi o julgamento da Microsoft – o processo iniciado</p><p>em 1998 e encerrado em 2011 questionava a “venda casada” entre o sistema</p><p>operacional Windows e o navegador Internet Explorer –, e o último</p><p>desmembramento foi da AT&T, em 1974.</p><p>O Google declarou em um tweet que a ação “está profundamente</p><p>equivocada. As pessoas usam o Google por escolha própria, e não porque são</p><p>obrigadas a fazê-lo ou porque não encontram alternativas”. O argumento é em</p><p>parte legítimo, stricto sensu é fato que não somos obrigados a pesquisar no</p><p>Google nem ter per�l no Facebook e no Instagram, nem nos comunicar via</p><p>WhatsApp. Por outro lado, são inegáveis a e�ciência e o alcance dos serviços</p><p>oferecidos por essas plataformas. Na base de seus modelos de negócio estão os</p><p>algoritmos de inteligência arti�cial, que são treinados e aperfeiçoados</p><p>continuamente pelos dados gerados nas interações dos usuários. Essa dinâmica</p><p>cria poderosas barreiras de entrada de novos concorrentes.</p><p>A natureza do processo contra o Google Research é distinta da pressão sobre</p><p>a suposta manipulação do Facebook, acusado, por exemplo, de censurar</p><p>publicações favoráveis a determinados candidatos ou não impedir a publicação</p><p>de fake news. O desa�o é como e a quem cabe distinguir liberdade de expressão</p><p>de atentado à democracia. Esse debate atinge o Google como dono do</p><p>YouTube: desde fevereiro, por exemplo, foram publicados 200 mil vídeos</p><p>enganosos sobre a covid-19.</p><p>Na Europa, a comissária de defesa de concorrência da União Europeia,</p><p>Margrethe Vestager, pretende obrigar as empresas a abrirem seus arquivos de</p><p>anúncios para reguladores e pesquisadores, prometendo anunciar, em 2 de</p><p>dezembro, duas iniciativas para controlar as gigantes de tecnologia (big techs) –</p><p>Digital Services Act (Ato de Serviços Digitais) e Digital Markets Act (Ato de</p><p>Mercados Digitais).</p><p>Proliferam sugestões de como reduzir o poder das big techs. Uma delas é os</p><p>indivíduos serem proprietários de seus dados; nesse caso, as redes sociais seriam</p><p>pagas, e os usuários, individual ou coletivamente, receberiam o aluguel dos</p><p>anunciantes, podendo, inclusive, transferir os dados para outras redes. Glen</p><p>Weyl, economista da Microsoft, propõe a formação de “sindicatos” para</p><p>negociar em nome de grupos de usuários pelo direito a um percentual da</p><p>receita gerada com o uso de seus dados (“dividendo digital”). Outra opção “na</p><p>mesa de negociação”, sem proposta clara de viabilidade, é taxar os dados.</p><p>Josh Simons, pesquisador visitante na área de “Responsible AI” do</p><p>Facebook, e Dipayan Ghosh, ex-consultor de privacidade e políticas públicas</p><p>na mesma empresa (2015-2017), defendem que o Facebook e o Google devem</p><p>ser regulamentados como serviços públicos.101 Para eles, sendo a esfera pública</p><p>(online e o�ine)</p><p>um espaço crítico de comunicação e organização, expressão</p><p>política e tomada de decisões coletivas, ao controlar como essa infraestrutura é</p><p>projetada e operada, essas plataformas concentram poder econômico, político e</p><p>social (como denuncia, inclusive, a senadora americana Elizabeth Warren).</p><p>Essas ideias desarticulam os modelos de negócio das big techs; vale indagar se</p><p>essa desarticulação atende aos interesses dos usuários, ou seja, qual o trade o�</p><p>entre privacidade/mediação/personalização/manipulação e benefícios. Qual</p><p>seria o resultado de um plebiscito entre os usuários sobre se estariam de acordo</p><p>com medidas severas contra essas plataformas, se comprometessem os</p><p>benefícios ofertados?</p><p>O professor da Columbia Law School Tim Wu questiona se os níveis</p><p>extremos da concentração atual do mercado são compatíveis com a premissa de</p><p>igualdade entre os cidadãos, a liberdade econômica e a própria democracia.102</p><p>Para Wu, os legisladores precisam atualizar as regulamentações antitruste.</p><p>Originada com a Lei Sherman (1890), nos Estados Unidos, a Defesa da</p><p>Concorrência ou Antitruste foi promulgada em reação à formação de grandes</p><p>monopólios e cartéis no �nal do século XIX. Contudo, foi só nas décadas de</p><p>1950-1960, pós-Segunda Guerra Mundial, que a lei antitruste foi claramente</p><p>identi�cada como essencial num regime democrático. A natureza dos modelos</p><p>de negócio dessas plataformas, contudo, ao oferecerem serviços “gratuitos” em</p><p>troca de dados, di�culta identi�car os efeitos negativos sobre seus usuários nos</p><p>moldes dessas leis.</p><p>Em artigo no Time de 2018, o jornalista David Kirkpatrick relata uma</p><p>conversa que teve com Mark Zuckerberg,103 em que ele justi�ca a contratação</p><p>de Sheryl Sandberg, em 2008, como chefe operacional do Facebook pela sua</p><p>experiência anterior como chefe de gabinete de Larry Summers, quando este</p><p>era secretário do Tesouro do presidente Bill Clinton. Zuckerberg teria dito em</p><p>2009: “Em muitos aspectos, o Facebook é mais como um governo do que</p><p>como uma empresa tradicional. Estamos realmente de�nindo políticas”. A</p><p>a�rmação de Zuckerberg deve ser levada a sério. O problema é que, em</p><p>ambientes complexos, as soluções não costumam ser simples.</p><p>Dados gerados pelos usuários nas plataformas digitais:</p><p>bens comuns ou proprietários?</p><p>22.1.2021</p><p>Em 2011, movimentos sociais conhecidos como “Primavera Árabe” em</p><p>poucos meses derrubaram governos (como na Tunísia e no Egito) ou</p><p>terminaram em con�ito sangrento (como na Líbia, no Iêmen e na Síria).</p><p>Liderados por jovens antenados com as tecnologias digitais, eles romperam</p><p>com o monopólio de mídia dos ditadores, desconstruindo suas mensagens e</p><p>convocando a população árabe para agir em plataformas como Facebook,</p><p>Twitter e YouTube.104 No mesmo ano, irromperam movimentos sociais mundo</p><p>afora, como Occupy Wall Street (OWS), no Zuccotti Park, distrito �nanceiro</p><p>de Nova York, e os Indignados, em diversas cidades da Espanha. O</p><p>protagonismo das mídias sociais foi não só reconhecido, como também</p><p>amplamente festejado.</p><p>Em anos recentes, contudo, cresce a hostilidade em relação às big techs,</p><p>fenômeno cunhado pela revista �e Economist como “techlash”: “Reação</p><p>negativa forte e generalizada ao crescente poder e in�uência de grandes</p><p>empresas de tecnologia, especialmente aquelas sediadas no Vale do Silício”,</p><p>conforme já consta no Oxford English Dictionary. Essa hostilidade advém do</p><p>poder desses conglomerados tanto na mediação da comunicação e da</p><p>sociabilidade, quanto na economia e na política. As interferências das redes</p><p>sociais nas eleições e a discriminação racial dos sistemas de vigilância, baseados</p><p>em tecnologias de reconhecimento facial, foram alguns dos eventos que deram</p><p>visibilidade a questões como a segurança, a privacidade e a propriedade dos</p><p>dados pessoais, e as imperfeições dos modelos de inteligência arti�cial.</p><p>Contribui, igualmente, a percepção de que seus produtos afetam a saúde</p><p>mental, particularmente dos jovens adolescentes (natureza viciante,</p><p>cyberbullying, conteúdos extremistas).</p><p>Essa hostilidade, portanto, não é monotemática e remete a várias re�exões.</p><p>A primeira é sobre a opacidade dos algoritmos de inteligência arti�cial. A</p><p>tecnologia de IA oferece à sociedade a oportunidade inédita de tornar mais</p><p>transparentes os processos de decisão em vários domínios. As decisões humanas</p><p>são absolutamente enviesadas, em função de crenças, repertórios, vivências de</p><p>cada pessoa (o viés nos dados, utilizados para treinar os algoritmos de IA,</p><p>re�ete em parte os preconceitos humanos). É utópica a ideia de “transparência”</p><p>no ambiente virtual, porque não o são as relações entre humanos, entre</p><p>instituições e humanos, e entre as próprias instituições. Cada um revela o que</p><p>deseja, de acordo com os seus interesses (além do inconsciente).</p><p>Outra re�exão é que o “mundo digital” não é um mundo à parte do</p><p>“mundo físico” nem é um espaço homogêneo; contempla múltiplos atores:</p><p>instituições, indivíduos, conexões, interesses, natureza, tecnologias,</p><p>dispositivos, regulamentações. Ou seja, a sociedade é complexa, parte de suas</p><p>atividades é presencial e parte é virtual, mas é o mesmo mundo (não obstante</p><p>as especi�cidades), em que o principal ativo é a informação (pressuposto da</p><p>Economia da Informação em Rede e da Economia de Dados).</p><p>Esses argumentos estão longe de serem consensuais, pelo contrário, estão no</p><p>centro de intensos debates. Fernando Filgueiras e Virgílio Almeida defendem</p><p>que uma das especi�cidades do “mundo digital” é o pressuposto de que os</p><p>dados digitais são bens comuns.105 A Stanford Encyclopedia of Philosophy refere-</p><p>se a “bem comum” (common good) como as facilidades – materiais, culturais ou</p><p>institucionais – que os membros de uma comunidade fornecem a todos os</p><p>membros a �m de cumprir uma obrigação relacional que preserva os interesses</p><p>comuns, e cita como exemplos canônicos os parques públicos, as estradas, a</p><p>segurança pública e a defesa nacional, o sistema jurídico, os museus, o ar e a</p><p>água limpos.106</p><p>No mundo digital existem dados que são bens comuns, porque são gerados</p><p>em plataformas compartilhadas – modelos de peer production/wiki (produção</p><p>em pares, colaborativa) –, como aborda Yochai Benkler em diversos livros e</p><p>artigos, a exemplo do seminal �e Wealth of Networks: How Social Production</p><p>Transforms Markets and Freedom (A riqueza das redes: como a produção social</p><p>transforma os mercados e a liberdade).107 Benkler enfatiza o papel dos bens</p><p>comuns de acesso aberto (open source) na inovação descentralizada e na</p><p>pesquisa cientí�ca – pesquisa clínica de doenças raras, ciência cidadã, conjunto</p><p>de dados sobre o oceano e atmosfera.108</p><p>E existem os dados que não são bens comuns, porque são gerados em</p><p>plataformas proprietárias, que é o caso dos dados gerados pelos usuários das</p><p>redes sociais, como Facebook e YouTube: os acionistas dessas plataformas</p><p>investem em larga escala para criar as suas “fábricas” (canais de comunicação,</p><p>captação, processamento e armazenamento de dados, tecnologias, equipes),</p><p>logo a matéria-prima produzida nesses ambientes, que são os dados digitais e</p><p>constituem a base de seus modelos de negócio, são legitimamente</p><p>proprietários.</p><p>Numa analogia simplista, o bem produzido por um trabalhador numa</p><p>fábrica industrial é aceito, universalmente, como pertencente ao dono do</p><p>capital, que, por sua vez, remunera o trabalhador pelos serviços prestados. No</p><p>caso das plataformas digitais, o produto “dado digital” é gerado pelos usuários</p><p>na sua forma bruta e se transforma efetivamente em dado digital “útil”,</p><p>compartilhável, por conta da infraestrutura dessas plataformas proprietárias.</p><p>Pode-se contestar que, nesse caso, o “trabalhador” não é remunerado, trabalha</p><p>de graça para o dono da plataforma, o que não é verdadeiro: a “moeda” que</p><p>remunera o usuário são os serviços ofertados pelas plataformas. Os serviços do</p><p>Google e do Facebook, por exemplo, não são gratuitos, pagamos pelo uso deles</p><p>com os nossos dados (dizendo de outra forma, não entregamos nossos dados</p><p>gratuitamente, somos remunerados com os serviços).</p><p>Um argumento contra essa analogia – fábricas</p><p>detectaram na variável-</p><p>chave inicial, de�nida pelos desenvolvedores do sistema, a origem do viés:</p><p>correlação entre custo anual com saúde e urgência no atendimento, ou seja,</p><p>quanto maiores os gastos em saúde no ano anterior, maior a probabilidade de o</p><p>paciente precisar de cuidados médicos de alta complexidade. Dois argumentos</p><p>indicam o erro na escolha dessa variável: a) em condições de saúde similares,</p><p>um paciente branco norte-americano custa em média 1.800 dólares a mais por</p><p>ano do que um paciente negro, contudo, essa diferença deve-se ao acesso</p><p>desfavorável dos pacientes negros aos serviços de saúde; e b) um paciente pode</p><p>ter um histórico médico saudável no ano anterior (logo, custo zero) e necessitar</p><p>de tratamento urgente e de alta complexidade no momento da consulta.</p><p>A descoberta foi relatada à Optum, criadora do sistema, que repetiu a</p><p>análise, encontrando os mesmos resultados; na sequência, em colaboração, as</p><p>duas equipes introduziram novas variáveis, reduzindo em 84% o viés original.</p><p>Os resultados do estudo foram publicados em outubro de 2019 na prestigiosa</p><p>revista Science.6</p><p>Nesse caso, frequentemente citado no debate sobre “discriminação</p><p>algorítmica”, o viés foi claramente associado a decisões humanas, e agravado</p><p>pelo racismo sistêmico (as equipes médicas e os gestores dos hospitais,</p><p>predominantemente brancos, não se deram conta da evidente discriminação).</p><p>No estágio atual de desenvolvimento da inteligência arti�cial, a subjetividade</p><p>humana está presente na criação dos sistemas, no treinamento dos algoritmos,</p><p>na escolha da base de dados, na veri�cação e nos ajustes, e na visualização e</p><p>interpretação dos resultados.</p><p>Distorções desse tipo, comuns nos sistemas de IA, remetem à importância</p><p>da diversidade na formação das equipes desenvolvedoras desses sistemas,</p><p>agregando, inclusive, experiências e conhecimentos de fora do campo</p><p>tecnológico. Pelas próprias características (e formação) dos desenvolvedores, o</p><p>foco dos projetos tecnológicos está na funcionalidade dos sistemas, visando</p><p>solucionar problemas práticos, e em geral não contemplam os impactos éticos e</p><p>sociais.</p><p>Marvin Minsky, em 1970, ao ganhar o Prêmio Turing (conhecido como o</p><p>Nobel da computação), previu que dentro de “três a oito anos teremos uma</p><p>máquina com a inteligência geral de um ser humano médio”, profecia que está</p><p>longe de se concretizar. Contudo, a inteligência arti�cial está mediando a vida</p><p>cotidiana dos cidadãos do século XXI; gradativamente, os algoritmos de IA</p><p>estão substituindo os humanos na execução de inúmeras tarefas, fortemente</p><p>presentes em sistemas de decisão automatizados.7</p><p>Nesse sentido, é mandatório que os usuários intermediários – pro�ssionais</p><p>de saúde, pro�ssionais de educação, gestores de RH, gestores �nanceiros, e</p><p>muitos outros – adquiram noções básicas da lógica e do funcionamento da</p><p>inteligência arti�cial para, inclusive, capacitar-se a fazer as perguntas críticas</p><p>aos fornecedores de tecnologia. Ao contratar ou adotar um sistema de IA,</p><p>dispor de conhecimento é essencial para identi�car e evitar resultados</p><p>tendenciosos.</p><p>O primeiro desa�o é enfrentar as de�ciências em nossa formação. Herdamos</p><p>um sistema de ensino baseado na lógica da economia industrial,</p><p>compartimentalizado e especializado, que forma pro�ssionais de ciências exatas</p><p>pouco sensíveis à ética e ao social, e pro�ssionais de ciências sociais e humanas</p><p>resistentes à tecnologia. A compartimentalização di�culta, inclusive, a</p><p>formação de equipes interdisciplinares. A experiência mostra que não basta</p><p>juntar pro�ssionais de várias áreas, é necessário construir pontes para superar</p><p>potenciais con�itos de linguagem, de raciocínio, de metodologia de análise, de</p><p>objetivos e prioridades.</p><p>São imensas as barreiras dos pro�ssionais que lidam com a conexão entre a</p><p>tecnologia e o domínio de aplicação, os “habitantes das terras fronteiriças”, por</p><p>exemplo, os “conectores” entre os desenvolvedores dos sistemas de inteligência</p><p>arti�cial para a saúde e os pro�ssionais de saúde. Os pacientes, legitimamente,</p><p>demandam dos médicos justi�cativas para os procedimentos previstos</p><p>(recomendados) pelos algoritmos de IA, tornando as fronteiras um lugar</p><p>complicado no qual seus residentes precisam se capacitar para traduzir</p><p>linguagens e visões de mundo díspares.</p><p>Scott Hartley, no livro O fuzzy e o techie: por que as ciências humanas vão</p><p>dominar o mundo digital, argumenta a favor das ciências humanas num mundo</p><p>dominado pela tecnologia, defendendo a parceria entre as ciências exatas e as</p><p>humanas, em que as primeiras focam no “como fazer” da revolução</p><p>tecnológica, e as segundas, no “por quê”, “para quê” e “quando”.8 Hartley</p><p>observa que os fundadores e dirigentes de empresas de tecnologia do Vale do</p><p>Silício, em geral, não têm formação básica em tecnologia e matriculam seus</p><p>�lhos em escolas humanistas que enfatizam a curiosidade intelectual, a</p><p>criatividade, a comunicação interpessoal, a empatia e a capacidade de</p><p>aprendizagem e resolução de problemas, ou seja, as chamadas soft skills, cada</p><p>vez mais valorizadas no mercado de trabalho. A formação em humanidades</p><p>tem se mostrado essencial para liderar a inovação, de produtos a modelos de</p><p>negócios.</p><p>Os algoritmos de inteligência arti�cial são bons em identi�car padrões</p><p>estatísticos, mas eles não têm como saber o que esses padrões signi�cam,</p><p>porque estão con�nados ao “math world” (mundo da matemática). Sem</p><p>compreender o mundo real, a IA não tem como avaliar se os padrões</p><p>estatísticos que encontram são coincidências úteis ou sem sentido. Como</p><p>alertam alguns especialistas, o perigo real hoje não é que a inteligência arti�cial</p><p>seja mais inteligente do que os humanos, mas supor que ela seja mais</p><p>inteligente do que os humanos e, consequentemente, con�ar nela para tomar</p><p>decisões importantes. A inteligência arti�cial atual deveria ser meramente um</p><p>parceiro dos especialistas humanos.</p><p>Não é o caso de todos nos tornarmos especialistas em IA, mas apenas de</p><p>adquirirmos uma familiaridade básica que permita aperfeiçoar nossa interação</p><p>com a tecnologia, maximizando os benefícios e minimizando os potenciais</p><p>danos. Numa analogia com os automóveis, em geral os motoristas</p><p>desconhecem como fabricar um carro ou mesmo como consertá-lo, no</p><p>entanto, sabem que frente a um obstáculo – um semáforo, outro carro, um</p><p>pedestre – é preciso frear, e não acelerar, para evitar acidente. Temos de saber</p><p>quando “frear” e quando “acelerar” a inteligência arti�cial.</p><p>Em 2016, quando decidi me dedicar aos impactos éticos e sociais da</p><p>inteligência arti�cial, tracei como meta estudar, simultaneamente, a própria</p><p>tecnologia, decisão que se mostrou acertada e que recomendo fortemente. A</p><p>primeira iniciativa foi procurar meu amigo de infância Davi Geiger, cientista</p><p>em IA radicado nos Estados Unidos há mais de 40 anos – PhD no Instituto de</p><p>Tecnologia de Massachusetts (MIT) e atualmente professor titular no Courant</p><p>Institute of Mathematical Sciences, da Universidade de Nova York –, que se</p><p>tornou meu mentor na tecnologia.</p><p>A cada encontro com o Davi, suas explicações são traduzidas em desenhos</p><p>esquemáticos. Adquiri o hábito de guardar esses desenhos para depois retomá-</p><p>los e constatar minha evolução no entendimento da inteligência arti�cial. Essa</p><p>interação requer de mim um grande esforço, particularmente porque a</p><p>linguagem da tecnologia é matemática, num grau de so�sticação do qual meus</p><p>estudos matemáticos anteriores não dão conta. Quando os desenhos começam</p><p>a fazer sentido para mim, o desa�o subsequente é traduzi-los em linguagem</p><p>natural, palatável ao campo das ciências sociais e humanas e, posteriormente,</p><p>aos interessados em geral.</p><p>Em outubro do mesmo ano, por recomendação do próprio Davi, participei</p><p>do meu primeiro evento internacional de inteligência arti�cial, a conferência</p><p>Ethics of Arti�cial Intelligence,9 organizada por David Chalmers e Ned Block,</p><p>�lósofos da Universidade de Nova York. Foram dois dias de debates intensos,</p><p>com a participação de 300 pesquisadores eminentes,</p><p>industriais e plataformas</p><p>digitais – é a relevância dessas plataformas na sociabilidade atual, consideradas</p><p>por alguns como “espaço público”. O argumento é poderoso, mas não elimina</p><p>as ponderações anteriores sobre a oportunidade de minimizar ou mesmo</p><p>eliminar o viés dos processos de decisão por meio da inteligência arti�cial e de</p><p>reconhecer que o mundo é único com atividades o�ine e online, e que os dados</p><p>digitais podem ser bens comuns ou proprietários, a depender das condições em</p><p>que foram gerados.</p><p>Tecnologias ambivalentes: conveniência versus</p><p>pesadelo orwelliano</p><p>5.2.2021</p><p>Os assistentes virtuais, em geral, provocam fortes polarizações entre os que</p><p>os consideram invasivos e os entusiastas dos seus benefícios. Aparentemente, os</p><p>últimos estão “vencendo”: um em cada cinco adultos nos Estados Unidos tem</p><p>um assistente de voz em casa, mercado dominado pela Alexa, da Amazon, com</p><p>70% de participação e mais de 100 milhões de dispositivos vendidos (seguida</p><p>pelo Google Assistant, com 24%).109 No Brasil, o produto está disponível</p><p>desde 2019.</p><p>A Alexa interage com voz, reproduz música, faz lista de tarefas, de�ne</p><p>alarmes, transmite podcasts, reproduz audiolivros, fornece informações em</p><p>tempo real sobre o tempo, trânsito, esportes, notícias, controla sistemas e</p><p>aparelhos inteligentes e conectados. Todas essas interações com os usuários</p><p>geram dados, que são coletados e armazenados, produzindo um conhecimento</p><p>inédito de preferências e hábitos cotidianos. Como alerta Yuval Harari, os</p><p>algoritmos estão nos observando, registrando aonde vamos, o que</p><p>consumimos, com quem nos relacionamos, monitorando todos os nossos</p><p>passos, respirações e batimentos cardíacos, conhecendo-nos melhor do que nós</p><p>mesmos, podendo nos controlar e manipular. “Você pode ter ouvido falar que</p><p>estamos vivendo na era de invadir computadores, mas isso di�cilmente é a</p><p>metade da verdade. Na verdade, estamos vivendo na era de hackers humanos”,</p><p>ou seja, os humanos é que estão sendo invadidos.110</p><p>A tecnologia que processa as palavras e atende às solicitações são os</p><p>algoritmos de inteligência arti�cial, particularmente a técnica de aprendizado</p><p>profundo (deep learning). Com base nessa massa de dados, a técnica identi�ca</p><p>correlações não visíveis aos humanos, aumentando fortemente o grau de</p><p>assertividade das previsões sobre, por exemplo, o comportamento futuro dos</p><p>usuários; no caso dos assistentes virtuais, eles selecionam a melhor resposta para</p><p>as perguntas que lhes são feitas (personalização). Especialistas garantem que um</p><p>simples “Bom dia” é su�ciente para a Alexa detectar o “astral” do usuário, via o</p><p>tom de voz e a respiração.</p><p>O tema da privacidade está no cerne dessa coleta e uso de dados sem</p><p>precedentes. A ameaça à privacidade está presente também no monitoramento</p><p>do processo por funcionários dos fabricantes dos dispositivos empenhados em</p><p>detectar falhas e melhorar seus desempenhos (os funcionários escutam as</p><p>conversas privadas, e, embora as gravações sejam anônimas, aparentemente,</p><p>elas contêm informações su�cientes para identi�car o usuário); no</p><p>processamento em nuvem, o que torna o sistema vulnerável a ataques de</p><p>hackers; no compartilhamento dos dados com desenvolvedores independentes,</p><p>para criar novas funcionalidades, com construtores, para embutir os sistemas</p><p>nos imóveis, e com fabricantes de aparelhos domésticos, com a mesma</p><p>�nalidade; além das imperfeições do próprio sistema, como o envio equivocado</p><p>de mensagens.</p><p>O Halo Band, da Amazon, lançado em dezembro de 2020, é outro</p><p>dispositivo controverso quando se trata de privacidade de dados pessoais. O</p><p>Halo é uma pulseira �tness (ou de saúde, como preferem alguns) com sensor de</p><p>temperatura e monitor de batimentos cardíacos, capaz de identi�car se o</p><p>usuário está aborrecido ou irritado pelo tom de voz. Para se diferenciar dos</p><p>smartwatches, como o Apple Watch e o Fitbit, o dispositivo oferece habilidades</p><p>inéditas que incluem visão computacional para varredura corporal (scan),</p><p>processamento de linguagem natural para avaliar o tom de voz, além de análise</p><p>do sono e rastreamento de atividades (recursos disponibilizados por meio de</p><p>assinatura no valor de 3,99 dólares mensais). Segundo o médico líder do</p><p>projeto, Dr. Malik Majmudar, o dispositivo tem uma abordagem holística da</p><p>saúde (física e socioemocional).</p><p>Antecipando-se a futuros questionamentos sobre a privacidade dos dados,</p><p>em 30 de outubro, antes do lançamento do produto, a Amazon publicou um</p><p>white paper (relatório o�cial com esclarecimentos sobre determinado tema) em</p><p>que garantia que os dados de saúde coletados pelo Halo não são utilizados para</p><p>recomendações de produtos ou publicidade, e não são vendidos.111 Parece,</p><p>contudo, não ter sido su�ciente: em 11 de dezembro, a senadora norte-</p><p>americana Amy Klobuchar enviou uma carta ao secretário do Departamento</p><p>de Saúde e Serviços Humanos (HHS), Alex Azar, pedindo providências,</p><p>principalmente porque o Halo não está sujeito à Lei de Responsabilidade e</p><p>Portabilidade de Seguro Saúde (HIPAA), de 1996, que estabelece padrões de</p><p>segurança e privacidade para os dados médicos.</p><p>Essa “fome de dados” tem relação direta com os modelos de negócio das</p><p>gigantes de tecnologia, que correlacionam e�ciência e sociabilidade: quanto</p><p>maior a sociabilidade (interações sociais), maior a geração de dados – o que</p><p>implica aumento da e�ciência de seus modelos. O empenho em identi�car e</p><p>mensurar preferências e hábitos dos usuários, e a partir daí prever</p><p>comportamentos, é a lógica das plataformas e dos aplicativos tecnológicos, das</p><p>redes sociais online, do comércio eletrônico e dos sites de busca como o</p><p>Google.</p><p>A extração de informações valiosas dos dados, via algoritmos de inteligência</p><p>arti�cial, permite direcionar a publicidade hipersegmentada, principal fonte de</p><p>faturamento, por exemplo, do Facebook – no quarto trimestre de 2020, a</p><p>receita de anúncios representou 96,8% do total –, além de otimizar produtos e</p><p>serviços. Estabelece-se um círculo virtuoso: interações sociais geram dados;</p><p>dados aprimoram os sistemas tecnológicos; e sistemas tecnológicos aprimoram</p><p>as interações sociais.112</p><p>Reconhecendo que os arcabouços regulatórios apropriados demandam</p><p>tempo de maturação, como ação imediata poderia ser exigido das empresas de</p><p>tecnologia lançar seus produtos acompanhados de um tipo de “bula”, em clara</p><p>analogia à indústria farmacêutica. Diferentemente das con�gurações de</p><p>privacidade, em geral escritas em letrinhas minúsculas e linguagem complexa, a</p><p>bula explicitaria em formatos acessíveis as “contraindicações”, as situações em</p><p>que os sistemas não devem ser adotados, e seus efeitos colaterais (riscos</p><p>intrínsecos).</p><p>Lina Khan, presidente da FTC: ameaça vigorosa ao</p><p>poder das gigantes de tecnologia</p><p>25.6.2021</p><p>Parte das maiores fortunas globais tem origem no varejo, como a de Samuel</p><p>Walton, do Walmart; de Bernard Arnault, da LVMH, e de Amancio Ortega, da</p><p>Zara (primeira e segunda maiores fortunas da Europa). Je� Bezos, fundador da</p><p>Amazon, atualmente é o “homem mais rico do planeta”. Na contramão da</p><p>maior parte das empresas, a Amazon se bene�ciou fortemente da covid-19: em</p><p>2020, obteve faturamento recorde (386,1 bilhões de dólares, contra 280</p><p>bilhões em 2019), dobrou os lucros trimestrais e conquistou a liderança em</p><p>valor de marca.</p><p>Em junho, o presidente Joe Biden escolheu Lina Khan, professora da</p><p>Faculdade de Direito da Universidade Columbia e crítica implacável do poder</p><p>das gigantes de tecnologia, para presidir a Federal Trade Commission (FTC),</p><p>órgão responsável por proteger os consumidores e a concorrência. Sua</p><p>nomeação, a mais jovem a ocupar essa função (32 anos), é amplamente</p><p>justi�cada; entre outras contribuições, destaca-se o artigo sobre a Amazon</p><p>publicado no Yale Law Journal. Nele, Khan aborda com precisão a estratégia de</p><p>negócio da Amazon e os equívocos dos reguladores norte-americanos.113</p><p>Responsável pelo seu extraordinário sucesso, a estratégia de negócio da</p><p>Amazon baseou-se na disposição para perdas (sustentada pelos investidores)</p><p>e</p><p>na diversi�cação das linhas de negócio – desde 2015 a Amazon tem sido</p><p>lucrativa, ampliando e fortalecendo a diversi�cação entre lojas online e</p><p>marketplace, lojas físicas (mais de 500 lojas do Whole Foods Market), Amazon</p><p>Prime e Amazon Ads. Negócios com margens elevadas, como Kindle (inclui o</p><p>Kindle Direct Publishing), Echo/Alexa e Amazon AWS, são líderes de</p><p>categoria.</p><p>O programa de �delização Amazon Prime, lançado em 2005, decisivo como</p><p>impulsionador de crescimento (clientes prime gastam mais e são mais leais à</p><p>plataforma), está presente em cerca de 70% dos lares norte-americanos de alta</p><p>renda; em abril de 2021, o programa tinha mais de 200 milhões de membros</p><p>em todo o mundo. Por anos, para ganhar market share, a Amazon Prime</p><p>operou com prejuízo: estima-se que até 2011 cada assinante tenha gerado um</p><p>prejuízo anual de 11 dólares (no Brasil, com menos benefícios, o programa está</p><p>disponível desde 2019, em cerca de 90 cidades).</p><p>Em paralelo, a logística da Amazon tornou-se a base de grande parte do</p><p>comércio eletrônico, gerando dependência, inclusive, dos concorrentes. Um</p><p>fenômeno recente é a “competição cooperativa”: a Net�ix, por exemplo, está</p><p>entre os principais clientes da infraestrutura de nuvem da Amazon AWS,</p><p>concorrendo com o Amazon Prime em oferta de conteúdo.</p><p>A Amazon pauta-se pela obsessão da experiência do cliente, preços baixos,</p><p>infraestrutura de tecnologia estável e geração de �uxo de caixa (coleta</p><p>rapidamente os pagamentos dos clientes e paga os fornecedores com prazos</p><p>relativamente longos, gerando liquidez para investir na expansão). A venda de</p><p>produtos é responsável pela maior parte do faturamento da Amazon, mas,</p><p>como tem custos elevados, opera com margens estreitas, amplamente</p><p>compensadas pelas margens elevadas da venda de serviços, como assinatura</p><p>Prime e AWS.</p><p>Na primeira carta aos acionistas, em 1997, Bezos já explicitava sua estratégia</p><p>de dominar o mercado sustentada por três pilares: base de clientes, valor de</p><p>marca e infraestrutura operacional. Para entender o poder acumulado pela</p><p>Amazon, Khan sugere considerá-la como uma entidade integrada, e não</p><p>isolando suas diversas linhas de negócio e os preços praticados em cada</p><p>segmento especí�co. Sem essa visão macro, não é possível capturar a real forma</p><p>de dominação da empresa: alavanca as vantagens obtidas em um setor para</p><p>impulsionar os demais.</p><p>Em sua crítica aos reguladores norte-americanos, Khan aponta o equívoco</p><p>de julgar as práticas predatórias de preços da Amazon com base em premissas</p><p>da velha economia: “O fato de a Amazon estar disposta a renunciar aos lucros</p><p>pelo crescimento solapa uma premissa central da doutrina contemporânea de</p><p>preços predatórios, que pressupõe que a predação é irracional precisamente</p><p>porque as empresas priorizam os lucros em vez do crescimento”. Outro</p><p>elemento não considerado pelos reguladores é o fato de a Amazon usar sua</p><p>função de fornecedora de infraestrutura para bene�ciar suas outras linhas de</p><p>negócios. Alinhada com Tim Wu, Khan questiona a capacidade do atual</p><p>arcabouço regulatório antitruste de enfrentar as práticas anticompetitivas das</p><p>grandes plataformas de tecnologia. No livro �e Curse of Bigness114 (A maldição</p><p>da grandeza), Wu pondera que os níveis extremos de concentração de mercado</p><p>são incompatíveis com a premissa de igualdade, com a liberdade industrial e</p><p>com a própria democracia; e alerta: “Existe muito poder privado concentrado</p><p>em poucas mãos, com muita in�uência sobre o governo e nossas vidas”. Para</p><p>ele, uma nova lei antitruste com sistemas de controle atualizados sobre a</p><p>concentração privada do poder econômico daria aos humanos uma chance de</p><p>se proteger das corporações.</p><p>Em suas análises, tanto Lina Khan quanto Tim Wu não abordam o modelo</p><p>de negócio data-driven das big techs. Originalmente criado pelo Google, a</p><p>prática de extrair informações de grandes conjuntos de dados com técnicas de</p><p>inteligência arti�cial e, com base nelas, fazer previsões tornou-se um fator</p><p>crítico de sucesso das plataformas tecnológicas e barreira de entrada para novos</p><p>concorrentes. O acesso a volumes extraordinários de dados (big data), gerados</p><p>nas interações dos usuários em suas plataformas, forja um círculo virtuoso: a</p><p>diversidade de atuação promove captação de dados igualmente diversi�cada</p><p>(além de volumes inéditos), que aprimora o desempenho dos produtos e</p><p>serviços, como o sistema pioneiro de recomendação da Amazon, atraindo mais</p><p>usuários, que geram mais dados.</p><p>A assistente virtual Alexa é um veículo poderoso de captação de dados</p><p>quali�cados sobre o comportamento cotidiano dos usuários. Em 2015, a</p><p>Amazon expandiu seu alcance ao abrir para desenvolvedores terceirizados a</p><p>possibilidade de agregar habilidades e, a partir de 2018, por meio de acordos</p><p>com fabricantes de dispositivos domésticos, ao juntar ao comando da Alexa</p><p>interruptores de luz, sistemas de segurança, fechaduras de porta, termostatos,</p><p>campainhas, entre outros. Esses dados signi�cam pesquisa massiva de</p><p>preferências, a custo relativamente baixo.</p><p>Com acesso a recursos �nanceiros quase ilimitados, que permitiram investir</p><p>na busca de escala (preços baixos para expandir a base de clientes), a Amazon</p><p>tornou-se uma plataforma diversi�cada de negócios, em que as lojas online</p><p>impulsionam outros negócios mais lucrativos, adquirindo um poder de</p><p>in�uência que vem sendo considerado excessivo mundo afora. A aposta é alta</p><p>na atuação de Lina Khan na FTC.</p><p>Desa�o do capitalismo de dados: reaproximar</p><p>economia e ética com base em novos paradigmas</p><p>15.10.2021</p><p>Em meados de 2013, com a revelação do esquema de espionagem da</p><p>Agência de Segurança Nacional norte-americana (NSA) por Edward Snowden,</p><p>o livro 1984, de George Orwell (1949), teve um aumento de vendas de</p><p>7.000% na Amazon, passando da posição 13.074 para a 193 da lista de livros</p><p>mais vendidos, e permanecendo entre os 100 mais vendidos entre 2013 e</p><p>2016. Em janeiro de 2017, uma semana após a posse de Donald Trump, o</p><p>livro �gurou como o mais vendido dentre todos os gêneros na Amazon. No</p><p>contexto atual, a distópica Oceânia de Orwell é uma re�exão sobre tecnologia</p><p>versus privacidade e controle, temas que estão na pauta da sociedade.</p><p>Em 5 de outubro, Frances Haugen, ex-gerente de produto do Facebook,</p><p>testemunhou no Senado dos Estados Unidos sobre os danos das mídias sociais,</p><p>particularmente, sobre a democracia e a saúde mental de adolescentes. O</p><p>depoimento no Senado foi precedido de uma série de revelações publicadas</p><p>pelo Wall Street Journal,115 com base em dezenas de milhares de documentos</p><p>internos fornecidos por Haugen. Em sua denúncia, ela alega que os executivos</p><p>estão cientes dos danos e sabem como evitá-los, mas não tomam providências,</p><p>porque privilegiam os lucros, e não a segurança e a integridade das pessoas.</p><p>Sendo verdade ou não, o teor do depoimento fortalece o movimento de</p><p>regulamentação da inteligência arti�cial, tecnologia-chave dos modelos de</p><p>negócio das plataformas de tecnologia (e dos processos de transformação digital</p><p>das empresas tradicionais).</p><p>Mundo afora, proliferam propostas para reduzir o poder dessas plataformas,</p><p>desde limitar o tamanho delas por país (estabelecendo um número máximo de</p><p>usuários) até implementar “testes de segurança” supervisionados por</p><p>reguladores antes de liberá-las ao público, aos moldes de outras indústrias,</p><p>como a farmacêutica, a aeroespacial e a automotiva. São múltiplas as propostas</p><p>de auditoria: pública ou privada, com transparência ou com con�dencialidade,</p><p>restrita ou não às aplicações de maior risco, com periodicidade aleatória ou</p><p>regular.</p><p>Em termos de regulamentação, estão em debate a Proposta da Comissão</p><p>Europeia, com 108 páginas,116 e o Projeto de Lei n.º 21/2020, com nove</p><p>páginas, aprovado em 29 de setembro pela Câmara dos Deputados brasileira e</p><p>enviado para apreciação e votação no Senado. Com escopos radicalmente</p><p>distintos – a proposta europeia é extensa e rígida, e o projeto brasileiro é uma</p><p>mera carta de princípios –, ambos não atendem a complexidade</p><p>da tecnologia</p><p>de inteligência arti�cial.</p><p>Apesar de os algoritmos de IA serem a base dos modelos de negócio (data-</p><p>driven models) do “capitalismo de dados”, conceituado por Viktor Mayer-</p><p>Schönberger e �omas Ramge como a nova con�guração do capitalismo (as</p><p>plataformas de tecnologia são sua parte mais visível, mas não a única),117 seus</p><p>efeitos negativos permanecem abstratos para a maioria da sociedade, inclusive</p><p>para os governos, reguladores e legisladores. Em 2019, por exemplo, os</p><p>senadores Ron Wyden e Cory Booker, ambos do Partido Democrata,</p><p>apresentaram ao Congresso dos Estados Unidos um projeto de lei sobre</p><p>responsabilidade algorítmica – Algorithmic Accountability Act118 –, projeto que</p><p>nem chegou a ser apreciado por uma das comissões do Senado, logo não foi</p><p>submetido ao plenário.</p><p>Wyden e Booker pretendem reapresentar o projeto de lei, inclusive porque</p><p>há sinais de que ele seja bem visto pelo governo do presidente Joe Biden (ao</p><p>menos como referência inicial para uma futura legislação de inteligência</p><p>arti�cial). O foco do projeto são as aplicações de alto risco, prevendo que as</p><p>empresas com faturamento acima de 50 milhões de dólares (ou no controle de</p><p>mais de 100 milhões de dados pessoais) sejam obrigadas a auditar seus modelos</p><p>de inteligência arti�cial, aos moldes das avaliações de impacto ambiental. A</p><p>partir da de�nição de “sistemas de decisão automatizada”, o projeto indica os</p><p>critérios de avaliação de impacto desses sistemas (a publicação dos resultados é</p><p>opcional). O órgão responsável pela �scalização, com regras de intervenção</p><p>previstas no projeto, é o Federal Trade Commission (FTC), atualmente</p><p>presidido pela advogada Lina Khan.119</p><p>Em 1987, o economista e �lósofo Amartya Sen, Prêmio Nobel de</p><p>Economia (1998), publicou o livro Sobre ética e economia.120 Nele, Sen sinaliza</p><p>a conexão histórica entre economia e ética, conexão que remonta a Aristóteles</p><p>(Ética a Nicômaco) e Adam Smith (considerado o “pai da economia moderna”,</p><p>Smith era professor de Filoso�a Moral na Universidade de Glasgow). A partir</p><p>da década de 1930, a relação entre ética e economia foi minimizada; Sen</p><p>defende, enfaticamente, a reaproximação. Ao correlacionar sociabilidade e</p><p>e�ciência – interações sociais geram dados, dados aprimoram os sistemas</p><p>tecnológicos, gerando mais lucro –, o modelo de negócio data-driven, contudo,</p><p>estabelece uma relação inédita entre ética e economia ainda longe de ser</p><p>compreendida.</p><p>Em março de 2013, a contaminação do suco de maçã Ades colocou em</p><p>xeque a reputação da marca Unilever, a con�abilidade em seus produtos e o</p><p>reconhecimento de qualidade como um de seus principais atributos. Catorze</p><p>pessoas entraram em contato com a empresa por meio do serviço de</p><p>atendimento ao consumidor, alegando mal-estar pelo consumo do produto;</p><p>desse total, 12 receberam atendimento médico e foram liberadas, e duas não</p><p>quiseram ser atendidas. A multinacional, enfrentando sua pior crise em 84</p><p>anos de Brasil, teve de lidar com os órgãos reguladores (desde a Anvisa até a</p><p>Defesa do Consumidor), atender as dúvidas dos consumidores (o SAC recebeu</p><p>cerca de 220 mil ligações) e evitar potenciais processos legais.</p><p>No caso descrito, a ética está correlacionada com o interesse direto do</p><p>consumidor, e a qualidade do produto é fator de sucesso comercial. O modelo</p><p>de negócio das plataformas de tecnologia rompe com essa correlação</p><p>tradicional: as mensagens de ódio, por exemplo, geram mais interação e</p><p>propagam mais rapidamente, porque mobilizam mais os usuários, ou seja,</p><p>aumentam a interação na plataforma (ou “consumo” do serviço ofertado pela</p><p>plataforma), comprometendo a qualidade do serviço (qualidade como função</p><p>do nível de dano causado ao usuário).</p><p>Compreender essa nova lógica demanda novos paradigmas. O termo</p><p>“paradigma” deriva do grego paradeigma, signi�cando “modelo” ou “padrão”,</p><p>ou seja, um conjunto de regras e princípios, fruto do desenvolvimento cultural,</p><p>histórico e civilizatório de uma época. Em pleno século XXI, o desa�o é</p><p>formular paradigmas compatíveis com o novo ambiente de negócios.</p><p>E</p><p>m 25 de novembro de 2021, os 193 países membros da Unesco �rmaram o</p><p>primeiro acordo global sobre a ética da IA, Global Agreement on the Ethics of</p><p>Arti�cial Intelligence.121 Com o propósito de garantir o desenvolvimento e o</p><p>uso saudável da IA, o acordo estabelece uma estrutura normativa que atribui</p><p>aos Estados a responsabilidade sobre a regulamentação e a �scalização.</p><p>Elaborado por um grupo multidisciplinar de 24 especialistas (Ad Hoc Expert</p><p>Group, AHEG), o texto destaca as vantagens e os potenciais riscos da IA</p><p>contemplando várias dimensões, entre elas o meio ambiente e as especi�cidades</p><p>do Sul Global. No âmbito especí�co, o acordo enfatiza o controle sobre o uso</p><p>de dados pessoais e proíbe, explicitamente, os sistemas de IA para pontuação</p><p>social (aos moldes do sistema chinês de crédito social) e vigilância em massa.</p><p>Na última década, frente à disseminação da IA na sociedade, surgiram</p><p>princípios gerais que, pela natureza abstrata, não são traduzíveis em linguagem</p><p>matemática (vital para incorporar em modelos estatísticos), e tentativas de</p><p>autorregulamentação ine�cientes. No âmbito regulatório, com abordagens</p><p>distintas, destacam-se a proposta da Comissão Europeia, Arti�cial Intelligence</p><p>Act (AIA), publicada em 21 de abril de 2021; o projeto de regulamentação dos</p><p>algoritmos de IA do Cyberspace Administration of China (CAC), em vigência</p><p>desde 29 de setembro de 2021; e o Projeto de Lei n.º 21/2020 brasileiro,</p><p>aprovado na Câmara dos Deputados em 29 de setembro de 2021 e remetido à</p><p>avaliação do Senado Federal. Mundo afora, Estados, organizações de classe e</p><p>organismos multilaterais lideram iniciativas regulatórias pontuais e/ou setoriais</p><p>na busca de mitigar as externalidades negativas, particularmente das aplicações</p><p>de IA de alto risco.</p><p>São bem-vindas as iniciativas de proteger a sociedade dos potenciais danos</p><p>da IA e, particularmente, de seu uso pelas grandes empresas de tecnologia.</p><p>Intervenções jurídicas e regulatórias não são su�cientes, é crítico ampliar o</p><p>conhecimento e a consciência da sociedade sem tecnofobia nem tecnoutopia.</p><p>Neste bloco, temos seis artigos que discorrem sobre desde as evidências da</p><p>falha da autorregulamentação até os pontos de fragilidade das propostas de</p><p>regulamentação. O segundo artigo pondera sobre o problema da lacuna de</p><p>conhecimento, ou assimetria informacional, entre produtores de tecnologia e</p><p>legisladores.</p><p>A sintonia do livro 1984 com as ameaças do século</p><p>XXI</p><p>18.10.2019</p><p>No livro 1984 (1949), George Orwell concebeu uma distopia chamada</p><p>Oceânia em que a “realidade” é de�nida pelo governo. Seu personagem</p><p>Winston Smith, um burocrata de meia-idade sem muito sucesso, trabalha no</p><p>Ministério da Verdade, e sua função consiste em reescrever notícias do passado</p><p>para adequá-las ao presente, perpetuando um regime político em que o</p><p>controle social é exercido pela desinformação e pela vigilância constante.</p><p>Em 2013, durante o governo Obama, com a revelação do esquema de</p><p>espionagem da Agência de Segurança Nacional (NSA), o livro de Orwell teve</p><p>um aumento de vendas de 7.000% na Amazon; entre 2013 e 2016, ele</p><p>permaneceu entre os 100 mais vendidos na Amazon e, em janeiro de 2017,</p><p>uma semana após a posse do presidente Trump, �gurou como o mais vendido</p><p>dentre todos os gêneros. O repentino interesse explica-se pela sintonia com o</p><p>ambiente atual, caracterizado pelas ameaças à privacidade, pela perda de</p><p>relevância dos fatos com a valorização da versão e pelas novas formas de</p><p>controle e de poder. Na atualidade, indivíduos, instituições e objetos estão</p><p>conectados continuamente (a “internet das coisas”, ou em inglês Internet of</p><p>things - IoT), e essa interação gera dados. Os dados representam o</p><p>conhecimento acumulado sobre a sociedade e são protagonistas do</p><p>denominado Capitalismo de Dados – expressão cunhada por Viktor Mayer-</p><p>Schönberger e �omas Ramge, autores de Reinventing Capitalism in the Age of</p><p>Big Data (Reinventando o capitalismo</p><p>na era dos dados) –, no qual as gigantes</p><p>de tecnologia controlam parte da geração, da mineração e do uso dos dados.122</p><p>Seus modelos de negócio são baseados na capacidade de identi�car nos</p><p>dados padrões, preferências e hábitos dos usuários e oferecer insights à tomada</p><p>de decisão (valendo-se dos algoritmos de inteligência arti�cial, especi�camente</p><p>dos modelos de machine learning/deep learning). Essa lógica está nas</p><p>plataformas e nos aplicativos tecnológicos, nas redes sociais, no comércio</p><p>eletrônico e nos sites de busca como o Google, cujos designs são concebidos</p><p>para ampliar a permanência de seus usuários, gerar engajamento e,</p><p>consequentemente, produzir mais dados.</p><p>A complexidade torna esses modelos relativamente opacos e temerários,</p><p>motivando o conceito de “Capitalismo de Vigilância” – proposto por Shoshana</p><p>Zubo� em A era do capitalismo de vigilância –, no qual os lucros derivam da</p><p>vigilância unilateral e da modi�cação do comportamento humano para �ns de</p><p>monetização. Para Zubo�, os dados sobre onde estamos, para onde vamos,</p><p>como estamos nos sentindo, o que estamos dizendo, os detalhes de nossa</p><p>direção e as condições de nosso veículo estão se transformando em receita na</p><p>atual perspectiva comercial.</p><p>A nova ordem econômica reivindica a experiência humana como matéria-</p><p>prima gratuita para práticas comerciais ocultas de extração, previsão e vendas.</p><p>Em sua visão, o novo capitalismo, em vez de produzir produtos, gera lucro</p><p>extraindo, analisando e vendendo dados (as plataformas tecnológicas, em geral,</p><p>não vendem os dados, vendem publicidade direcionada/hipersegmentada).</p><p>Sem deixar de reconhecer os enormes benefícios das novas tecnologias, Brett</p><p>Frischmann, Villanova University e de Stanford, e Evan Selinger, Rochester</p><p>Institute of Technology, autores de Re-Engineering Humanity, argumentam que</p><p>o recurso de coleta de dados faculta a governos e empresas um inédito poder de</p><p>vigilância e a prerrogativa de usar as informações especí�cas coletadas e agir a</p><p>partir delas.123 Para os autores, as tecnologias estão desempenhando um papel</p><p>essencial na formação de nossas crenças, emoções e bem-estar e, em geral, por</p><p>mecanismos que entendemos parcialmente.</p><p>Os algoritmos de IA não apenas são instrumentos comerciais, mas também</p><p>permitem prever e interferir, de maneira inédita, em nossa conduta em todas as</p><p>esferas da vida social. O grau e e�cácia dessa intervenção, contudo, é</p><p>controverso.</p><p>O campo de pesquisa das tecnologias persuasivas vem se disseminando com</p><p>o avanço da IA, com distintos propósitos, desde estimular vendas em</p><p>estratégias comerciais até interferir nas escolhas políticas nos processos</p><p>eleitorais. O cientista comportamental B. J. Fogg, por exemplo, fundou o</p><p>Stanford Persuasive Tech Lab, em 1998, com o intuito de gerar insights no</p><p>desenvolvimento de tecnologias aptas a mudar as crenças, os pensamentos e os</p><p>comportamentos dos indivíduos de maneira previsível. Denominado de</p><p>captology, o estudo das tecnologias persuasivas inclui design, pesquisa, ética e a</p><p>análise de produtos de computação interativa. Seus pesquisadores conceituam a</p><p>“captologia” como uma nova maneira de pensar sobre o comportamento-alvo e</p><p>transformá-lo numa direção compatível com o “problema” a ser resolvido.</p><p>Parte dos riscos está sendo mitigada em leis de proteção de dados, como a</p><p>Lei Geral de Proteção de Dados do Brasil (LGPD). Diretamente sobre as</p><p>tecnologias de inteligência arti�cial, tramita no Senado o Projeto de Lei n.º</p><p>5.051/2019, do senador Styvenson Valentim (Podemos-RN), que contém os</p><p>princípios que o desenvolvimento da IA deveria seguir e restringe o papel dos</p><p>sistemas de IA ao de mero apoiador da tomada de decisão humana. Seus</p><p>críticos argumentam que o baixo número de artigos (apenas sete) deixa de</p><p>contemplar muitas questões relacionadas ao uso da tecnologia; outro</p><p>questionamento é a ausência de descrição detalhada do termo “inteligência</p><p>arti�cial”.</p><p>As iniciativas regulatórias ainda são tímidas (algumas equivocadas) em</p><p>comparação com a dimensão dos desa�os, mas sinalizam as primeiras reações</p><p>positivas da sociedade.</p><p>Decodi�cando o cérebro humano: assimetria</p><p>informacional entre produtores de tecnologia e</p><p>legisladores</p><p>5.3.2021</p><p>A possibilidade de transferência da mente humana para computadores é um</p><p>tema do universo da �cção cientí�ca. Em Transcendence (2014), �lme de Wally</p><p>P�ster, por exemplo, o pesquisador de inteligência arti�cial Dr. Will Caster,</p><p>personagem interpretado por Johnny Depp, vive a experiência de ter sua</p><p>consciência transferida para uma máquina. Se na �cção causa desconforto</p><p>momentâneo, a mera possibilidade de concretização na “vida real” levanta</p><p>inúmeras questões éticas que, aparentemente, não estão na pauta de</p><p>prioridades dos formuladores de políticas e arcabouços regulatórios mundo</p><p>afora. Ainda estamos longe de equacionar impactos mais visíveis e imediatos da</p><p>inteligência arti�cial, como a mediação da comunicação e da sociabilidade e os</p><p>processos decisórios automatizados.</p><p>Jack Gallant, professor de Psicologia e Neurociência da Universidade da</p><p>Califórnia, tem como foco de pesquisa a modelagem computacional do cérebro</p><p>humano. Para tal, desenvolve modelos (algoritmos de decodi�cação do</p><p>cérebro) para descrever com precisão como o cérebro representa o mundo,</p><p>como codi�ca as informações das atividades cotidianas, complexas e simples,</p><p>com base em dados coletados por meio de ressonância magnética. Apoiado em</p><p>“engenharia reversa” do algoritmo de reconhecimento de imagem (aprendizado</p><p>de máquina/IA), Gallant e equipe buscaram visualizar o que uma pessoa estava</p><p>vendo com base em sua atividade cerebral. Os primeiros resultados cientí�cos,</p><p>publicados em 2011, sinalizaram a possibilidade de, no futuro, uma máquina</p><p>ler pensamentos e acessar memórias de humanos.</p><p>Volumes imensos de recursos estão sendo investidos na direção de</p><p>transformar radicalmente a interação homem-máquina. O jornalista Moises</p><p>Velasquez-Mano�, num longo artigo publicado no New York Times, descreve,</p><p>entre outras pesquisas desenvolvidas por diferentes instituições, o estudo,</p><p>�nanciado pelo Facebook, de Edward Chang, neurocirurgião da Universidade</p><p>da Califórnia: produzir um capacete de leitura cerebral usando luz</p><p>infravermelha. Recentemente, um de seus experimentos previu, com 97% de</p><p>precisão, cerca de 250 palavras num conjunto de 50 sentenças utilizadas por</p><p>um voluntário (aparentemente, a melhor taxa alcançada em estudos</p><p>semelhantes).124</p><p>Elon Musk e mais oito investidores criaram em 2016 a Neuralink, empresa</p><p>de neurotecnologia com foco no desenvolvimento de interfaces implantáveis</p><p>cérebro-máquina (brain machine interface, BMI). O propósito é transferir a</p><p>mente humana para um computador, libertando o cérebro do corpo, num</p><p>processo denominado “mind-upload” (transferência da mente humana). A</p><p>startup recebeu 158 milhões de dólares em �nanciamento, sendo 100 milhões</p><p>de Musk (em julho 2019, contava com 90 funcionários).</p><p>Em Superinteligência, livro de referência sobre o futuro da inteligência</p><p>arti�cial, o �lósofo inglês Nick Bostrom pondera que a interface direta cérebro-</p><p>computador permitiria aos humanos explorar os pontos fortes da computação</p><p>digital – recordação perfeita, cálculo aritmético rápido e preciso, e transmissão</p><p>de dados de alta largura de banda.125 Outra possibilidade aventada por</p><p>Bostrom é o aprimoramento gradual de redes que liguem as mentes humanas</p><p>umas às outras, o que ele denominou de “coletivo superinteligente”.</p><p>As barreiras à concretização dessas ideias são imensas. Para o neurocientista</p><p>da Universidade Federal do Rio de Janeiro (UFRJ) Roberto Lent, não é</p><p>possível visualizar o upload do cérebro para uma máquina num horizonte</p><p>razoável, pelo gigantismo da circuitaria cerebral: “Como transferir 4 trilhões de</p><p>sinapses para bits?”. Por outro lado, Lent admite que já existem mecanismos</p><p>para estudar a interação remota entre duas ou mais pessoas por meio de</p><p>técnicas de neuroimagem funcional. “Quando tem liga entre as atividades</p><p>cerebrais, posso</p><p>descobrir quais regiões dos cérebros estão sincronizadas,</p><p>signi�cando que posso me comunicar com você sem te ver, sem te ouvir, posso</p><p>ter acesso no meu cérebro à sua atividade neural.” Segundo ele, é possível</p><p>visualizar a comunicação direta entre cérebros num horizonte relativamente</p><p>próximo.126</p><p>Com os instrumentos atuais, contudo, é difícil estudar o cérebro humano: a</p><p>pesquisadora Esther Landhuis, em 2017, comparou o tempo de computação e</p><p>análise utilizado por pesquisadores chineses para estudar as conexões dos 135</p><p>mil neurônios de uma mosca – cerca de 10 anos – com o tempo necessário</p><p>para estudar o cérebro humano, com seus 86 bilhões de neurônios, e concluiu</p><p>que seriam necessários 17 milhões de anos.127</p><p>Os enormes benefícios das tecnologias de inteligência arti�cial convivem</p><p>com externalidades negativas a serem enfrentadas. Proliferam propostas de</p><p>governança da IA, como a “auditoria baseada na ética” defendida pelo �lósofo</p><p>italiano Luciano Floridi e diversos outros pesquisadores de empresas como</p><p>Google e Intel, e universidades como Oxford, Cambridge e Stanford. Para ser</p><p>e�caz, ou seja, con�ável, como reconhece Floridi, o auditor teria de ser um</p><p>órgão governamental ou associado a uma organização multilateral. As</p><p>propostas, em geral, esbarram na complexidade da tecnologia versus a lacuna de</p><p>conhecimento dos legisladores e reguladores.</p><p>Em artigo publicado no site do Fórum Econômico Mundial (WEF), os</p><p>pesquisadores Adriana Bora e David Alexandru Timis admitem a falta de</p><p>clareza dos reguladores sobre as funções dessas tecnologias, ilustrando com as</p><p>audiências no Congresso dos Estados Unidos de testemunhos de executivos de</p><p>gigantes de tecnologia. “Ofereceram ao público a oportunidade de observar a</p><p>preocupante lacuna de alfabetização digital entre as empresas que produzem a</p><p>tecnologia que está moldando nossas vidas e os legisladores responsáveis por</p><p>regulamentá-la”, ponderam os autores.128</p><p>A tendência é essa assimetria informacional aumentar na medida em que</p><p>aumenta a complexidade dos modelos de inteligência arti�cial. Se aplicações</p><p>básicas, como os algoritmos de seleção e classi�cação de conteúdo utilizados</p><p>pelas redes sociais, não são plenamente acessíveis, o que dirá dos algoritmos de</p><p>decodi�cação do cérebro. O desa�o é evitar que a legislação chegue tarde</p><p>demais, quando a tecnologia já estiver incorporada na sociedade.</p><p>Proposta europeia de regulamentação da inteligência</p><p>arti�cial: impressões preliminares</p><p>30.4.2021</p><p>As tecnologias não são todas iguais, algumas adicionam valor incremental à</p><p>sociedade, e outras são disruptivas. Ao recon�gurar a lógica de funcionamento</p><p>da economia e aportar modelos inéditos de negócio, as disruptivas provocam</p><p>períodos de reorganização, o que o economista Joseph Schumpeter denominou</p><p>de “destruição criativa”. As tecnologias de uso geral (general purpose technologies,</p><p>GPT) estão nesse último bloco. São tecnologias-chave, moldam toda uma era e</p><p>reorientam as inovações nos setores de aplicação, como a máquina a vapor, a</p><p>eletricidade e o computador. A inteligência arti�cial é a tecnologia de propósito</p><p>geral do século XXI. Esse pressuposto, ou natureza, sugere regulamentações</p><p>setoriais, incorporando as especi�cidades da IA aos arcabouços jurídicos e</p><p>órgãos �scalizadores preexistentes. Contudo, esse não foi o caminho adotado</p><p>pela Comissão Europeia.</p><p>Na tentativa de proteger os humanos antes que seja “tarde demais”, a</p><p>Comissão Europeia, órgão executivo da União Europeia, divulgou sua proposta</p><p>de regulamentação do desenvolvimento, da implantação e do uso da IA</p><p>(excetuando as aplicações para �ns militares), fruto de processo iniciado em</p><p>2018. Ao longo de 108 páginas estão previstos procedimentos para</p><p>fornecedores e usuários, com multas signi�cativas para situações de não</p><p>conformidade. Não por acaso, o texto é permeado de lacunas, ambiguidades,</p><p>excesso de adjetivos, imprecisões, em geral, não compatíveis com uma proposta</p><p>de regulamentação.129</p><p>Apesar da expressa intenção de estimular o desenvolvimento e a</p><p>implementação da inteligência arti�cial na Europa, a rigidez das regras e o</p><p>custo associado para atendê-las apontam para a direção oposta e,</p><p>provavelmente, serão contestados ao longo do debate a que a proposta será</p><p>submetida antes de se transformar efetivamente em regulamentação. Pelas</p><p>reações iniciais, o rol de contrariados é extenso; além, obviamente, do setor</p><p>privado, incluem-se o setor público, para o qual a IA tem sido útil para lidar</p><p>com grandes conjuntos de dados (como no caso da Justiça brasileira), e</p><p>instituições da sociedade civil que, na direção oposta, temem que a excessiva</p><p>amplitude fomente a ideia de autorregulação.</p><p>A proposta de regulamentação europeia é mais um tema para o governo</p><p>Biden, já envolvido com a regulamentação das big techs. A expectativa é que o</p><p>crescente protagonismo da China incentive o diálogo entre Estados Unidos e</p><p>Europa, que terá de contemplar, entre outras, as diferenças entre seus sistemas</p><p>jurídicos (common law norte-americano, alicerçado nos costumes e na</p><p>jurisprudência, e civil law europeu, fundamentado em leis e direito positivado).</p><p>A abordagem da proposta é baseada em risco, delimitando os sistemas e seus</p><p>usos em três categorias: “unacceptable risk” (risco inaceitável), “high risk” (risco</p><p>elevado) e “low/minimal risk” (risco baixo/mínimo). As aplicações de</p><p>“unacceptable risk”, por representarem uma ameaça à segurança e aos</p><p>indivíduos, serão proibidas: a) sistemas com técnicas subliminares para</p><p>distorcer o comportamento de um usuário de maneira a causar danos físicos ou</p><p>psicológicos, ou manipular o comportamento humano; b) sistemas que</p><p>explorem vulnerabilidades de um grupo especí�co de usuários relacionado a</p><p>idade, de�ciência física ou mental, para distorcer materialmente o</p><p>comportamento de forma que cause danos físicos ou psicológicos; c) sistemas</p><p>utilizados por autoridades públicas para avaliar ou classi�car a con�abilidade</p><p>de pessoas físicas com pontuação social, ocasionando tratamento desfavorável.</p><p>Igualmente, será proibida a identi�cação biométrica remota em “tempo real”</p><p>em espaços acessíveis ao público (por exemplo, reconhecimento facial nas</p><p>câmeras de vigilância), com poucas exceções – busca por criança desaparecida,</p><p>ameaça terrorista ou para localizar um suspeito de crime grave –, e mesmo</p><p>nesses casos o uso sujeita-se à prévia autorização judicial.</p><p>As aplicações de “high risk” serão rigorosamente monitoradas e referem-se</p><p>ao uso de inteligência arti�cial em: a) infraestrutura crítica, por exemplo,</p><p>transporte, que coloque em risco a vida e a saúde dos cidadãos; b) educação ou</p><p>formação pro�ssional, que determine o acesso como classi�cação de exames e</p><p>seleção; c) componentes de segurança de produtos, como em cirurgias</p><p>assistidas por robôs; d) gestão de trabalhadores, como software de análise de</p><p>currículos em processos de recrutamento; e) serviços públicos e privados</p><p>essenciais, como pontuação de crédito para obtenção de empréstimo; f )</p><p>aplicação coerciva da lei, como avaliação da �abilidade de provas; g) gestão de</p><p>migração, de asilo e controle de fronteiras, como veri�cação da autenticidade</p><p>de documentos de viagem; e h) administração da justiça e processos</p><p>democráticos (aplicação da lei baseada em fatores especí�cos).</p><p>Nessa categoria, o monitoramento prevê instrumentos adequados de</p><p>avaliação e mitigação de risco; registro das atividades para garantir a</p><p>rastreabilidade dos resultados; documentação pormenorizada, permitindo a</p><p>�scalização das autoridades; supervisão humana em todas as etapas; e elevado</p><p>nível de solidez, segurança e exatidão. Está previsto, igualmente, controle sobre</p><p>os dados, desde a coleta até a preparação (rotulagem, limpeza, agregação),</p><p>incluindo a obrigatoriedade de exames para detectar potencial viés</p><p>(discriminação) durante toda a “vida útil” do sistema.</p><p>Ademais, os sistemas de “high risk” devem garantir que o seu</p><p>funcionamento seja su�cientemente transparente aos usuários, com instruções</p><p>de uso em formato digital (“informações concisas, completas, corretas e claras</p><p>que</p><p>sejam relevantes, acessíveis e compreensíveis para os usuários”). Os sistemas</p><p>também devem permitir aos supervisores interpretar os resultados,</p><p>compreender plenamente suas capacidades e limitações, e monitorar, detectar e</p><p>resolver as anomalias, as disfunções e o desempenho inesperado. A proposta</p><p>prevê um botão de “parar” a ser acionado pelo supervisor. Além disso, deve-se</p><p>garantir que nenhuma ação ou decisão seja tomada pelo usuário com base na</p><p>indicação do sistema, sendo obrigatória a con�rmação de pelo menos duas</p><p>“singular person” (sem de�nição explícita).</p><p>A proposta a�rma que a maior parte das aplicações está na categoria</p><p>“low/minimal risk”, mas a realidade indica o contrário: parte signi�cativa das</p><p>aplicações atuais, isoladas ou inseridas em modelos de negócio, está na</p><p>categoria “high risk”. São muitas as “áreas cinzentas”; por exemplo, os</p><p>aplicativos de inteligência arti�cial “manipulativos”, que visam alterar e</p><p>in�uenciar o comportamento dos usuários, incluem ou não os algoritmos de</p><p>IA dos modelos de negócio das plataformas digitais (instrumentos de persuasão</p><p>e mídia hipersegmentada, como Google e Facebook)? Como restringir o uso de</p><p>identi�cação biométrica em sistemas de vigilância aos casos previstos, se a</p><p>efetividade depende de um sistema previamente instalado e ativo?</p><p>Na ponderação sobre regulamentação macro versus setorial, cabe re�etir: se</p><p>cada país tem seu Banco Central, que regula todo o funcionamento do sistema</p><p>�nanceiro, qual o sentido de outro órgão de�nir e �scalizar os procedimentos</p><p>de concessão de crédito com inteligência arti�cial? Se cada país tem seu</p><p>Ministério da Educação, qual o sentido de outro órgão de�nir e �scalizar os</p><p>procedimentos de aplicação da IA na educação? Se cada país tem sua Justiça,</p><p>qual o sentido de outro órgão de�nir e �scalizar quais modelos de IA podem</p><p>ou não ser usados nos processos jurídicos? Se cada país tem seu órgão regulador</p><p>da saúde, qual o sentido de outro órgão de�nir e �scalizar a conduta médica</p><p>associada à IA? Se cada universidade tem seu Comitê de Ética, qual o sentido</p><p>de um órgão externo apreciar os projetos com IA? Ademais, quem seriam os</p><p>membros desse super “comitê central” cuja missão é �scalizar a partir de</p><p>conhecimento tão especializado e critérios tão subjetivos? Ao optar por</p><p>regulamentação macro, a Comissão Europeia enfrentará desa�os que serão</p><p>equacionados, ou não, no que se avizinha ser um longo percurso.</p><p>Inteligência arti�cial e as idiossincrasias do poder</p><p>público brasileiro</p><p>9.7.2021</p><p>O PalasNET é um sistema usado pela Polícia Federal com base em técnicas</p><p>de reconhecimento facial, ou seja, inteligência arti�cial. Existem outros</p><p>exemplos de uso de IA pela polícia brasileira, como o sistema NuDetective,</p><p>para detecção automática de nudez e pornogra�a infantil na internet. O Poder</p><p>Judiciário, gradativamente, tem adotado sistemas de inteligência arti�cial.</p><p>Pesquisa realizada pela Fundação Getulio Vargas (FGV), entre fevereiro e</p><p>agosto de 2020, identi�cou 64 projetos em funcionamento ou em fase de</p><p>implantação em 47 tribunais do país.130</p><p>No âmbito do Supremo Tribunal Federal (STF) destaca-se o Projeto Victor.</p><p>Desenvolvido em parceria com a Universidade de Brasília, é o primeiro projeto</p><p>de inteligência arti�cial aplicado a uma Corte Institucional; seu objetivo é</p><p>analisar e classi�car, por temas recorrentes, os recursos extraordinários.131</p><p>Também existem iniciativas locais, como a plataforma Sinapses, do Tribunal de</p><p>Justiça de Rondônia, com o intuito de estimular o desenvolvimento de</p><p>modelos de IA adequados ao Processo Judicial Eletrônico (PJE). Em agosto de</p><p>2020, o Conselho Nacional de Justiça (CNJ) promulgou a Resolução n.º 332,</p><p>que dispõe sobre princípios éticos a serem observados no desenvolvimento e no</p><p>uso da inteligência arti�cial pelo Judiciário.132</p><p>Na última década, em face da proliferação das tecnologias de IA na</p><p>automação de distintas tarefas, um conjunto de princípios gerais vem sendo</p><p>replicado mundo afora. Originado na Asilomar Conference on Bene�cial AI,</p><p>realizada em 2017 pelo Future of Life Institute, são conhecidos como</p><p>“Asilomar Principles”.133 Esses princípios gerais são de aplicabilidade restrita,</p><p>ou seja, não são traduzíveis em boas práticas para nortear o ecossistema de</p><p>inteligência arti�cial. Alguns deles, como justiça e dignidade, não são</p><p>universais, e, mais desa�ador, desconhece-se como representá-los em termos</p><p>matemáticos, precondição para que possam ser incorporados em modelos</p><p>estatísticos de probabilidade.</p><p>A única proposta de regulamentação conhecida é a da Comissão</p><p>Europeia.134 A proposta é fruto de um processo relativamente longo de debate</p><p>na comunidade europeia, envolvendo especialistas da academia, do mercado e</p><p>do governo, que resultou em relatórios densos submetidos à apreciação pública.</p><p>Com todo esse antecedente, mesmo assim, a proposta é vaga, confusa, em</p><p>certos aspectos idealista, e a expectativa é de que seja debatida no decurso dos</p><p>próximos anos antes de se transformar, se for o caso, efetivamente em lei.</p><p>No Brasil, com signi�cativo atraso em relação aos países desenvolvidos, a</p><p>inteligência arti�cial está em uso não só no setor público – principalmente na</p><p>Justiça –, como também no segmento mais avançado do setor privado</p><p>(principalmente nas plataformas e aplicativos que os brasileiros acessam no</p><p>cotidiano, em sua quase totalidade desenvolvidos e controlados por empresas</p><p>norte-americanas). Pelos seus benefícios – redução de custo e aumento de</p><p>e�ciência operacional, experiências inéditas para usuários, clientes e</p><p>consumidores, previsões mais assertivas, decisões mais consistentes e uniformes</p><p>–, a tendência é de adoção crescente, o que justi�ca amplamente iniciativas</p><p>governamentais para proteger os cidadãos e as instituições dos potenciais</p><p>impactos negativos. Mas não justi�ca a precipitação, responsável por gerar</p><p>soluções incompletas, equivocadas e sem e�cácia.</p><p>Em 9 de abril de 2021, o Ministério da Ciência, Tecnologia e Inovações</p><p>(MCTI) publicou no Diário O�cial da União a “Estratégia Brasileira de</p><p>Inteligência Arti�cial” (EBIA) com o propósito de: “Nortear o Governo</p><p>Federal no desenvolvimento das ações, em suas várias vertentes, que estimulem</p><p>a pesquisa, inovação e desenvolvimento de soluções em inteligência arti�cial,</p><p>bem como, seu uso consciente, ético e em prol de um futuro melhor”.</p><p>Comparando com as oito principais estratégias nacionais – de Estados Unidos,</p><p>Canadá, Reino Unido, China, Índia, França, Alemanha e Coreia –, conclui-se</p><p>facilmente que o documento do MCTI é uma “não estratégia de IA”: carece de</p><p>objetivos, metas, orçamento, cronograma, en�m, de todos os elementos que</p><p>compõem um plano estratégico.</p><p>No dia 6 de julho de 2021, a Câmara dos Deputados aprovou o regime de</p><p>urgência para o Projeto de Lei n.º 21/2020, de regulamentação da inteligência</p><p>arti�cial, com autoria do deputado Eduardo Bismarck (PDT-CE), prevendo a</p><p>votação da proposta nas próximas sessões do Plenário. Com sete páginas de</p><p>texto (espaçadas), assim como a suposta estratégia brasileira de IA não é uma</p><p>estratégia, o projeto de lei é um “não projeto de lei”, se tomarmos como</p><p>referência a única proposta similar, a já citada AIA, da Comissão Europeia</p><p>(com 108 páginas). Entre inúmeras lacunas, o projeto não prevê punições nem</p><p>multas, o que o torna inócuo do ponto de vista legal; não distingue claramente</p><p>desenvolvedores de usuários; atrela a segurança a padrões internacionais de IA,</p><p>sem atentar para o fato de que não existem tais padrões internacionais (além</p><p>disso, uma lei tem de ser explícita para que sirva como base posterior de</p><p>processos legais); de�ne vagamente a prestação de contas pelos “agentes de</p><p>inteligência arti�cial”; declara funções a serem exercidas pelo “poder público”,</p><p>sem indicar o órgão responsável; prevê que União, estados e municípios</p><p>recomendem padrões e boas práticas, sem especi�car quais seriam. Nomeada</p><p>de “consulta pública”, alguns especialistas em IA foram convocados pela</p><p>Câmara dos Deputados para comentar o projeto em “extensos” 10 minutos!</p><p>Um projeto de lei confere direitos que serão invocados</p><p>em situações de</p><p>arbitragem, logo é mandatório um conteúdo su�cientemente claro, preciso e</p><p>incondicional. Qualquer projeto dessa natureza precisa ser debatido</p><p>intensamente pela sociedade para gerar conhecimento e consciência, inclusive</p><p>para capacitar os deputados de modo que possam exercer suas atribuições de</p><p>legislar com conhecimento de causa. Fica a pergunta: por que a urgência? O</p><p>país, em plena crise sanitária-econômica-política-social, certamente, tem outras</p><p>prioridades.</p><p>A China tem ética para o uso de dados e inteligência</p><p>arti�cial, mas o poder decisório irrestrito é do governo</p><p>23.7.2021</p><p>A Administração do Ciberespaço da China (CAC) ordenou que os</p><p>aplicativos da Didi Chuxing – 377 milhões de usuários e 13 milhões de</p><p>motoristas ativos, dona do aplicativo 99 no Brasil – fossem retirados das lojas</p><p>por violação grave das leis de coleta e uso de informações pessoais. A suspensão</p><p>ocorreu quatro dias após a abertura de capital na Bolsa de Valores de Nova</p><p>York. A medida representa um marco no esforço das autoridades chinesas em</p><p>de�nir normas e padrões éticos com relação à privacidade, inclusive mais</p><p>rígidos do que da GDPR, lei de proteção de dados europeia.</p><p>Na prática, contudo, o poder decisório irrestrito do governo chinês relativiza</p><p>a e�cácia das medidas. O sistema jurídico na China está sujeito à supervisão e à</p><p>interferência do Poder Legislativo, ou seja, do Partido Comunista. Isenções</p><p>problemáticas emergem quando relacionadas, particularmente, à segurança, à</p><p>saúde e ao “interesse público signi�cativo”. Ao mesmo tempo que o governo</p><p>estimula a coleta de grandes volumes de dados para atender o sistema de</p><p>crédito social (Social Credit System), sem respeitar a privacidade, pressiona as</p><p>empresas de tecnologia para que se enquadrem na legislação (enquadramento</p><p>relativizado em função de interesses do governo).</p><p>O tratamento dos dados ganhou relevância na China com o New Generation</p><p>of Arti�cial Intelligence Plan – AIDP135 (Plano de Desenvolvimento de</p><p>Inteligência Arti�cial de Nova Geração) primeiro esforço legislativo em nível</p><p>nacional com foco em IA. As tecnologias de inteligência arti�cial já estavam</p><p>presentes nos planos econômicos anteriores, mas a vitória no jogo de tabuleiro</p><p>Go, em março de 2016, do sistema de IA AlphaGo da DeepMind/Google</p><p>sobre o sul-coreano Lee Sedol, campeão mundial, acompanhada ao vivo por</p><p>mais de 280 milhões de chineses, ensejou o reconhecimento do papel</p><p>estratégico da IA no desenvolvimento econômico. Em 2017, o presidente Xi</p><p>Jinping anunciou o novo plano AIDP para uma audiência de diplomatas</p><p>estrangeiros, declarando que a China seria líder mundial em IA até 2030.136</p><p>O AIDP tem três áreas de concentração: concorrência internacional (até</p><p>2020, manter a competitividade com outras grandes potências, otimizando seu</p><p>ecossistema de inteligência arti�cial); crescimento econômico (até 2025,</p><p>alcançar um “grande avanço” teórico no campo da IA e ser líder mundial em</p><p>algumas aplicações); e governança social (ser o centro de inovação mundial,</p><p>atualizando leis e normas para lidar com os novos desa�os). A coordenação do</p><p>plano é compartilhada entre o Ministério da Ciência e Tecnologia e o</p><p>Escritório de Promoção do Plano de Inteligência Arti�cial, assessorados pelo</p><p>Comitê Consultivo de Estratégia de Inteligência Arti�cial, fundado em</p><p>novembro de 2017. A ideia é que o AIDP seja um incentivador ativo de</p><p>projetos locais (e não centralizador).</p><p>O plano AIDP elegeu algumas empresas privadas como “campeãs nacionais</p><p>de IA”, com a função de desenvolver setores especí�cos: a Baidu, direção</p><p>autônoma; a Alibaba, cidades inteligentes; e a Tencent, visão computacional</p><p>para diagnósticos médicos. Os termos do acordo estabelecem que a empresa</p><p>privada adotará os objetivos estratégicos do governo em troca de contratos</p><p>preferenciais, acesso facilitado a �nanciamento e proteção de participação no</p><p>mercado.</p><p>Em março de 2019, o Ministério da Ciência e Tecnologia da China criou o</p><p>Comitê Nacional de Especialistas em Governança de Inteligência Arti�cial, que</p><p>lançou princípios éticos básicos para o desenvolvimento da IA: foco na</p><p>melhoria do bem-estar comum da humanidade, respeito pelos direitos</p><p>humanos, privacidade e justiça, transparência, responsabilidade, colaboração e</p><p>agilidade. Em paralelo, a Administração de Padronização da República Popular</p><p>da China, órgão responsável pelo desenvolvimento de padrões técnicos,</p><p>também lançou um documento com a defesa de um conjunto de princípios</p><p>éticos e a proteção da propriedade intelectual.</p><p>Alinhados com as iniciativas governamentais, órgãos a�liados ao governo e</p><p>empresas privadas criaram seus próprios princípios éticos de inteligência</p><p>arti�cial. A Academia de Inteligência Arti�cial de Pequim, por exemplo, órgão</p><p>de pesquisa e desenvolvimento de empresas e universidades, divulgou os</p><p>“Princípios da IA de Pequim”: fazer o bem para a humanidade, usar a IA</p><p>“corretamente”, e prever e se adaptar a ameaças futuras. A Associação Chinesa</p><p>de Inteligência Arti�cial (CAII) também estabeleceu princípios éticos. No setor</p><p>privado, a Tencent enfatiza a importância de a IA ser disponível, con�ável,</p><p>compreensível e controlável.</p><p>Em outubro de 2019, um grupo de pesquisadores, entre eles o �lósofo</p><p>italiano e professor da Universidade de Oxford Luciano Floridi, publicou o</p><p>artigo �e Chinese Approach to Arti�cial Intelligence: An Analysis of Policy, Ethics,</p><p>and Regulation, com cerca de 190 referências.137 O foco do artigo é o contexto</p><p>político-social que está moldando a estratégia chinesa de inteligência arti�cial,</p><p>incluindo os limites de uso impostos pelos debates éticos; o conjunto amplo e</p><p>diversi�cado de referências compõe um material de pesquisa robusto. Uma de</p><p>suas conclusões é que, apesar de os princípios serem semelhantes aos do</p><p>Ocidente, dada as especi�cidades institucionais e culturais, a ênfase da</p><p>estratégia chinesa é maior nas relações de grupos e comunidades, e menor nos</p><p>direitos individuais.</p><p>A China disputa com os Estados Unidos a liderança no desenvolvimento e</p><p>uso das tecnologias de inteligência arti�cial; apesar da guerra comercial entre os</p><p>dois países, os pesquisadores de ambos os países estão empenhados em garantir</p><p>colaboração internacional. A primeira iniciativa conhecida nessa direção data</p><p>de 2010, quando o cientista da computação Jie Tang, da Universidade de</p><p>Tsinghua, Pequim, recebeu a missão de ir para os Estados Unidos e estabelecer</p><p>vínculo com um renomado pesquisador norte-americano de IA. Nove anos</p><p>depois, Tsinghua foi classi�cada como a melhor universidade de Ciência da</p><p>Computação do mundo pelo ranking da US News, sendo responsável pela</p><p>maior parte do 1% de artigos nos campos da matemática e da computação</p><p>mais citados mundialmente entre 2013 e 2016. Para o vice-reitor da</p><p>Universidade de Zhejiang em Hangzhou, We Fei, colaborador ativo no plano</p><p>AIDP, os desa�os enfrentados pela IA não podem ser resolvidos por um país</p><p>isolado: “A tarefa mais urgente é colaborar. Não podemos dizer que, para evitar</p><p>a concorrência, não vamos cooperar. Em última análise, isso prejudicaria os</p><p>interesses de toda a humanidade”.138</p><p>A Universidade de Stanford há quatro anos publica o AI Index Report sobre</p><p>o avanço anual da IA globalmente. O relatório de 2021 indicou que a China,</p><p>em 2020, tornou-se líder em citações em periódicos cientí�cos; desde 2017, a</p><p>China vem ultrapassando os Estados Unidos em número de publicações</p><p>cientí�cas.139</p><p>Em 2017, o Canadá publicou a primeira estratégica nacional de inteligência</p><p>arti�cial; desde então, mais de 30 países publicaram documentos semelhantes.</p><p>Em junho de 2020, em torno da OCDE, 15 países – Austrália, Canadá,</p><p>França, Alemanha, Índia, Itália, Japão, México, Nova Zelândia, República da</p><p>Coreia, Cingapura, Eslovênia, Reino Unido, Estados Unidos e União Europeia</p><p>– lançaram a Parceria Global em Inteligência Arti�cial (GPAI), sob a</p><p>presidência compartilhada do Canadá e da França; em dezembro de 2020,</p><p>aderiram à GPAI Brasil, Holanda, Polônia e Espanha. Em abril de 2021, a</p><p>Comissão Europeia publicou o Arti�cial Intelligence Act (AIA), primeira</p><p>proposta de</p><p>regulamentação do desenvolvimento e uso da IA.140</p><p>Essas iniciativas associadas à inteligência arti�cial mundo afora formam um</p><p>poderoso conjunto de referências, ponto de partida para o poder público</p><p>brasileiro elaborar seus próprios caminhos de forma mais consistente e e�caz.</p><p>A autorregulamentação falhou: cabe ao poder público</p><p>a tarefa de regular a IA</p><p>26.11.2021</p><p>Luciano Floridi, professor de Filoso�a e Ética da Informação e diretor do</p><p>Digital Ethics Lab, da Universidade de Oxford, é um autor “compulsivo” sobre</p><p>inteligência arti�cial. Em artigo de 2020, Floridi alerta que um novo inverno</p><p>da IA se aproxima: “O risco de todo verão de IA é que as expectativas</p><p>superestimadas se transformem em uma distração em massa. O risco de todo</p><p>inverno de IA é que a reação seja excessiva, a decepção muito negativa, e as</p><p>soluções potencialmente valiosas sejam jogadas fora com a água das ilusões”.141</p><p>O alerta se justi�ca diante dos impasses no avanço da tecnologia e na mitigação</p><p>dos riscos.</p><p>A inteligência arti�cial teve vários “invernos”. O primeiro, na década de</p><p>1970, período de frustração motivado, em parte, pelas previsões pessimistas</p><p>dos pesquisadores Marvin Minsky e Seymour Papert sobre as redes neurais.142</p><p>Em meados da década de 1980, redescobertas geraram novo interesse na IA,</p><p>mas este durou apenas até 1995. A partir de 2003, Geo�rey Hinton, Yoshua</p><p>Bengio e Yann LeCun insistiram no caminho das redes neurais – com base no</p><p>algoritmo perceptron (tipo de rede neural), proposto por Frank Rosenblatt em</p><p>1958, e no conceito de “conexionismo”, proposto pelos psicológicos David</p><p>Rumelhart e James McClelland, da Universidade da Califórnia –, obtendo</p><p>aprovação da academia e do mercado em 2012. Ou seja, a tecnologia está em</p><p>seus primórdios.</p><p>Mesmo reconhecendo que a inteligência arti�cial tem potencial de</p><p>contribuir no enfrentamento de problemas planetários – aquecimento global,</p><p>injustiça social e migração –, Floridi argumenta que, para tal, a IA deve ser</p><p>tratada “como uma tecnologia normal, nem como um milagre nem como uma</p><p>praga, simplesmente como uma das muitas soluções que a engenhosidade</p><p>humana conseguiu inventar”.</p><p>Cabe à sociedade investigar se as soluções de inteligência arti�cial vão</p><p>efetivamente substituir, diversi�car, complementar ou expandir as soluções</p><p>anteriores, e qual o nível de aceitabilidade social dessas soluções: “Vamos</p><p>realmente usar algum tipo de óculos estranho para viver em um mundo virtual</p><p>ou aumentado criado por IA? Considere que hoje muitas pessoas relutam em</p><p>usar óculos, mesmo quando precisam muito deles, apenas por razões estéticas”,</p><p>pondera Floridi.</p><p>Como comentado em colunas anteriores, a reação inicial à disseminação da</p><p>inteligência arti�cial, com seus potenciais danos, foi a criação de um conjunto</p><p>de princípios gerais. Concebidos em 2017 na Asilomar Conference on</p><p>Bene�cial AI pelo Future of Life Institute, os “Asilomar Principles” são de</p><p>aplicabilidade restrita.143 Em seguida, a autorregulamentação passou a ser</p><p>propagada pelas grandes empresas de tecnologia.</p><p>Em artigo de novembro 2021, Floridi declara o �m da ilusão de</p><p>autorregulamentação da indústria de tecnologia/digital.144 Numa rápida</p><p>retrospectiva, o �lósofo relembra que até o início da década de 2000 questões</p><p>éticas como privacidade, enviesamento e preconceito, moderação de conteúdo</p><p>ilegal ou antiético, proteção à privacidade, fake news e exclusão digital eram</p><p>circunscritas ao debate no âmbito acadêmico. O programa da primeira</p><p>conferência da International Association for Computing and Philosophy, em</p><p>1986, na qual lhe coube a presidência, incluía o ensino online e a ideia</p><p>denominada à época de “ética da computação” (posteriormente, “ética da</p><p>informação” e hoje “ética digital”).</p><p>A partir de 2004, esses temas adquiriram visibilidade na opinião pública,</p><p>com a consequente pressão sobre as estratégias e práticas das instituições e</p><p>sobre a necessidade de criar arcabouços regulatórios. Para lidar com a crise</p><p>ética, �oresceu a ideia de autorregulamentação. Floridi rememora inúmeras</p><p>reuniões em Bruxelas entre formuladores de políticas, legisladores, políticos,</p><p>funcionários públicos e especialistas técnicos francamente favoráveis à ideia de</p><p>“soft law”, baseada em códigos de conduta e padrões éticos da própria</p><p>indústria, sem necessidade de controles externos ou imposições regulatórias. Ao</p><p>longo do tempo, contudo, esse caminho não se tornou efetivo, ilustrado por</p><p>experiências não exitosas.</p><p>Em junho de 2018, o Google lançou o AI Principles, e, em 2019, o AI</p><p>Guidebook,145 ambos com a �nalidade de orientar o desenvolvimento e o uso</p><p>responsáveis da inteligência arti�cial, sem resultados concretos. Em 2019,</p><p>constituiu o Advanced Technology External Advisory Council (ATEAC), que</p><p>reuniu oito especialistas, entre eles Luciano Floridi. Em abril de 2019, a MIT</p><p>Technology Review publicou um artigo com um conjunto de sugestões práticas</p><p>para orientar o Google nessas questões, a�rmando com ironia que isso seria</p><p>necessário pelo fato de o ATEAC ter durado apenas uma semana.146</p><p>Em 2018, o Facebook criou o Facebook Oversight Board como um órgão</p><p>independente, com o propósito de selecionar casos de conteúdo para revisão e</p><p>defender ou reverter as decisões de conteúdo da plataforma; o comitê tem</p><p>atualmente cerca de 20 membros, sendo o advogado e pesquisador Ronaldo</p><p>Lemos o único representante da América Latina. Em janeiro de 2020, o</p><p>Facebook revelou o estatuto do comitê; a série de lacunas preservava o</p><p>comando da plataforma. Diante das reações contrárias, em outubro de 2020,</p><p>reformulou os termos, aparentemente, atribuindo mais legitimidade ao comitê.</p><p>Ainda é cedo para avaliar, mas suas funções estão longe de abarcar a dimensão</p><p>dos problemas éticos da plataforma.</p><p>Diante da inoperância da autorregulamentação, emergem arcabouços</p><p>regulatórios como o Arti�cial Intelligence Act (AIA), da Comissão Europeia,147 a</p><p>regulamentação dos algoritmos de inteligência arti�cial pelo governo chinês,</p><p>até as iniciativas setoriais norte-americanas e o Projeto de Lei n.º 21/2020,</p><p>aprovado na Câmara dos Deputados, ora em tramitação no Senado Federal.148</p><p>“Chegou a hora de reconhecer que, por mais que valesse a pena tentar, a</p><p>autorregulação não funcionou. A autorregulação precisa ser substituída pela lei;</p><p>quanto antes melhor”, pondera Floridi. É obrigação do poder público proteger</p><p>a sociedade, os cidadãos e as instituições.</p><p>Numa crítica direta aos futurologistas, apropriada a qualquer proposta que</p><p>não leve em conta a complexidade do ambiente atual, Floridi argumenta que</p><p>“eles gostam de uma ideia única e simples, que interpreta e muda tudo, que</p><p>pode ser retratada em um livro fácil que faz o leitor se sentir inteligente, um</p><p>livro para ser lido por todos hoje e ignorado amanhã. É a má dieta do fast food</p><p>porcaria para pensamentos e a maldição do best-seller de aeroporto. Precisamos</p><p>resistir à simpli�cação excessiva. Desta vez, vamos pensar mais profunda e</p><p>extensivamente sobre o que estamos fazendo e planejando para a inteligência</p><p>arti�cial. O exercício é denominado �loso�a, não futurologia”.</p><p>O</p><p>ecossistema de saúde defronta-se com a disrupção de práticas tradicionais,</p><p>entre outros fatores, pelas tecnologias digitais – apps, dispositivos móveis,</p><p>IA, telemedicina, blockchain –, que estão transformando o acesso aos</p><p>serviços de saúde, a relação médico-paciente e a relação do paciente com a</p><p>própria saúde, e impactando igualmente setores periféricos como o de seguros.</p><p>O reconhecimento de imagem, uma das implementações de IA mais bem-</p><p>sucedidas, tem gerado resultados com alto grau de assertividade em</p><p>diagnósticos dependentes de imagem, como radiologia, patologia e</p><p>dermatologia. Resultados positivos estão sendo observados, igualmente, na</p><p>detecção precoce de Alzheimer – ao aplicar uma das arquiteturas das redes</p><p>neurais profundas, generative adversarial network (GAN), a exames de</p><p>ressonância magnética149 –, na saúde mental, na personalização de</p><p>medicamentos.</p><p>Apesar das evidências positivas, o setor de saúde é mais suscetível às</p><p>limitações da técnica de IA (redes neurais</p><p>profundas). A não explicabilidade</p><p>(caixa-preta/black-box) do funcionamento dos modelos, por exemplo, é uma</p><p>barreira à adesão dos pro�ssionais de saúde: como recomendar um diagnóstico</p><p>automatizado sem saber como o sistema chegou ao resultado? A ética é um</p><p>tema sensível no setor de saúde, atento especialmente a) ao viés contido nos</p><p>dados, que pode reproduzir, reforçar e ampliar os padrões de marginalização,</p><p>desigualdade e discriminação existentes na sociedade; b) à designação de</p><p>responsabilidade em casos de lesão/danos; e c) à privacidade de dados pessoais,</p><p>nesse caso, dados sensíveis (segundo a Lei Geral de Proteção de Dados,</p><p>LGPD).</p><p>Este bloco é composto de quatro artigos com foco nos benefícios da</p><p>conexão médico-paciente, na internet of bodies, nos chatbots terapêuticos e nas</p><p>“formas prazerosas de escape” que transcendem as redes sociais e os games.</p><p>Protagonismo da inteligência arti�cial no setor de</p><p>saúde: restaurar a conexão médico-paciente</p><p>20.11.2020</p><p>A utopia pós-humanista é o projeto de melhoramento in�nito das</p><p>capacidades físicas, intelectuais e morais dos seres humanos, graças à</p><p>convergência NBIC – nanociência, biotecnologia, informática e ciências</p><p>cognitivas –, gerando uma espécie humana sem as limitações de sua condição</p><p>natural, como o envelhecimento biológico e a morte. Yuval Harari, em Homo</p><p>Deus, projeta uma futura divisão do gênero humano em castas biológicas, com</p><p>a constituição de uma elite privilegiada, os “super-humanos”, bene�ciários da</p><p>medicina voltada ao aprimoramento da condição dos saudáveis, e não à cura</p><p>dos doentes.</p><p>Com a covid-19, o desa�o do setor de saúde tem sido equilibrar as</p><p>urgências de curto prazo com a reestruturação do setor frente às novas</p><p>tecnologias – aplicativos, dispositivos móveis, telemedicina, blockchain –,</p><p>particularmente a inteligência arti�cial. Esta tem o potencial de transformar o</p><p>acesso aos serviços de saúde, a relação médico-paciente e a relação do paciente</p><p>com a própria saúde.</p><p>O reconhecimento de imagem, técnica de IA, está sendo usado em áreas</p><p>ricas em imagem, como radiologia, patologia, dermatologia, oftalmologia. Na</p><p>gastroenterologia, a inteligência arti�cial permite identi�car nos exames de</p><p>colonoscopia pólipos diminutos (menores que cinco milímetros) com acurácia</p><p>acima de 90% e em segundos. A fertilização in vitro tem tido resultados bem-</p><p>sucedidos, ao selecionar embriões com mais chances de êxito (correlaciona com</p><p>mais precisão doador e receptor).</p><p>A saúde mental é outra área de aplicação da inteligência arti�cial, como no</p><p>rastreamento de depressão por meio da interação do usuário com o teclado, da</p><p>voz, do reconhecimento facial, do uso de sensores e chatbots interativos; na</p><p>previsão de medicação antidepressiva, correlacionando de forma mais assertiva</p><p>medicação e paciente, e na prevenção de potencial suicídio e episódios de</p><p>psicose em esquizofrênicos.</p><p>Na cirurgia robótica assistida, a inteligência arti�cial permite analisar dados</p><p>de registros médicos pré-operatórios, guiando �sicamente o instrumento do</p><p>cirurgião em tempo real durante o procedimento e reduzindo o tempo de</p><p>permanência dos pacientes no hospital após a cirurgia. A IA reduziu o custo do</p><p>sequenciamento genômico, importante para orientar tratamentos</p><p>personalizados de câncer, e aprimorou o gerenciamento da saúde da população</p><p>em geral.</p><p>Contudo, para o médico norte-americano Eric Topol, autor de Deep</p><p>Medicine: How Arti�cial Intelligence Can Make Healthcare Human Again</p><p>(Medicina profunda: como a inteligência arti�cial pode de novo humanizar a</p><p>assistência médica), a maior contribuição da IA no setor de saúde não é reduzir</p><p>erros ou volume de trabalho, nem mesmo curar doenças como o câncer, mas é</p><p>a oportunidade de restaurar a conexão entre pacientes e médicos ao</p><p>disponibilizar mais tempo para o atendimento.150</p><p>Apesar de todo o investimento – o custo global em saúde atinge 3,5 trilhões</p><p>de reais por ano, com taxa de crescimento estimada em 48% ao ano até 2023</p><p>–, o tempo alocado entre médico e paciente vem diminuindo</p><p>progressivamente. Os médicos, pressionados pelos planos de saúde, pelos</p><p>hospitais e clínicas, pela rotina intensa, focam cada vez mais em pedir e analisar</p><p>exames e menos no paciente.</p><p>O privilégio de uma relação médico-paciente, em geral, é prerrogativa da</p><p>elite; a maior parte dos cidadãos é atendida em relações precárias,</p><p>particularmente na saúde pública. Nos Estados Unidos, o tempo alocado por</p><p>consulta caiu de 60 minutos em 1975 para 12 minutos em 2019 (consulta de</p><p>retorno, de 30 minutos para sete minutos). No Brasil, o tempo da consulta</p><p>acompanha a média mundial de oito minutos, e estudos realizados na rede</p><p>pública detectaram atendimentos de menos de três minutos, con�itando</p><p>inclusive com o Ministério da Saúde, que de�ne “serviço produtivo” como um</p><p>atendimento de, no mínimo, 15 minutos.</p><p>Estudos apontam uma interdependência entre a qualidade da relação</p><p>médico-paciente e a quantidade de erros médicos. Pesquisadores do</p><p>Departamento de Medicina da Universidade do Texas sintetizaram três estudos</p><p>sobre a frequência de erros de diagnóstico na população adulta norte-</p><p>americana, e o resultado foi uma taxa de 5,08%, ou seja, aproximadamente 12</p><p>milhões de adultos nos Estados Unidos por ano, um em cada 20 adultos, e</p><p>50% dos erros de diagnóstico têm potencial negativo de alto risco. Estima-se</p><p>que só nos Estados Unidos os falsos positivos gerem anualmente 4 bilhões de</p><p>dólares de desperdício.</p><p>Apesar dos resultados efetivos, a adoção da inteligência arti�cial na saúde</p><p>ainda é relativamente limitada. Além de restrições �nanceiras, de carência de</p><p>pro�ssionais capacitados e do medo de perder o emprego, a não explicabilidade</p><p>(caixa-preta) do funcionamento dos modelos, legitimamente, é um fator de</p><p>forte resistência.</p><p>Outro aspecto são as questões éticas: o viés contido nos dados pode</p><p>reproduzir, reforçar e ampliar os padrões de marginalização, desigualdade e</p><p>discriminação existentes na sociedade; nem sempre as amostras de dados usadas</p><p>no treinamento dos algoritmos representam o universo das populações em</p><p>estudo. Há ainda a questão da designação de responsabilidade em casos de</p><p>lesão ou consequência negativa nos resultados gerados por algoritmos.</p><p>A quantidade e a qualidade dos dados é outra barreira. Em geral, os dados</p><p>são coletados de pacientes internados, que já apresentam algum problema de</p><p>saúde; ademais, no momento da coleta os pacientes encontram-se em</p><p>condições “arti�ciais”, ou seja, fora de sua rotina de vida. A solução de curto</p><p>prazo para treinar os algoritmos tem sido a de produzir sinteticamente grandes</p><p>conjuntos de imagens em alta resolução.</p><p>O protagonismo (e poder) das big techs também está presente no setor de</p><p>saúde. A Amazon adquiriu, em 2018, por 1 bilhão de dólares, a PillPack,</p><p>serviço personalizado de entrega de medicamentos controlados em pacotes com</p><p>as doses indicadas e o horário em que devem ser tomadas. Dois anos depois,</p><p>anunciou a Amazon Pharmacy, com efeito imediato sobre o valor de mercado</p><p>de gigantes do setor como Walgreens, segunda maior operadora de farmácias</p><p>dos Estados Unidos. A Alphabet, holding do Google, adquiriu por 375 milhões</p><p>de dólares participação societária na Oscar Health, startup de Nova York que</p><p>oferece médicos 24 horas por dia. O Facebook, por usa vez, �rmou uma</p><p>parceria com a Universidade de Nova York para o desenvolvimento de</p><p>máquinas de ressonância magnética com inteligência arti�cial.</p><p>A IA tem o potencial de reduzir custos e melhorar a e�ciência geral do</p><p>sistema de saúde. Desenvolver e aperfeiçoar os modelos, contudo, é uma parte</p><p>menor do desa�o, o principal é repensar a interação médico-paciente,</p><p>requali�car os pro�ssionais, criar novas funções, como o chief nursing</p><p>informatics o�cer (CNIO), acompanhar e avaliar os impactos das tecnologias</p><p>sobre os pacientes, intermediando as áreas de enfermagem clínica e de</p><p>tecnologia da informação.</p><p>Para proteger os direitos do paciente, é mandatório que os pro�ssionais da</p><p>saúde, os pesquisadores e</p><p>os formuladores de políticas públicas conheçam os</p><p>riscos e se empenhem em controlá-los.</p><p>Internet dos corpos: o corpo humano como</p><p>plataforma tecnológica</p><p>19.3.2021</p><p>Marcapasso cardíaco monitorado remotamente, pâncreas arti�cial que</p><p>monitora a glicose no sangue e fornece insulina, implantes cerebrais para tratar</p><p>os sintomas de Parkinson e Alzheimer, próteses com software conectado aos</p><p>ossos são exemplos de dispositivos ingeridos, implantados ou acoplados ao</p><p>corpo humano, transformando-o em uma plataforma tecnológica. A internet</p><p>dos corpos (internet of bodies, IoB), extensão do domínio da internet das coisas</p><p>(internet of things, IoT), tem controle sobre funções vitais do corpo,</p><p>convertendo-o em fonte geradora de dados pessoais com impactos na</p><p>privacidade.</p><p>As pílulas inteligentes (smart pills) são cápsulas com sensores que percorrem</p><p>o organismo em busca de sinais fora do padrão (anomalias), capazes de detectar</p><p>desde doenças benignas até câncer. Criadas por Kourosh Kalantar-Zadeh,</p><p>engenheiro de nanotecnologia da Universidade RMIT, Austrália, as cápsulas</p><p>medem pH, enzimas, temperatura, nível de açúcar e pressão arterial,</p><p>oferecendo uma imagem pluridimensional do corpo humano. Nos Estados</p><p>Unidos, a Agência de Alimentos e Medicamentos (Food and Drug</p><p>Administration - FDA) aprovou o dispositivo PillCam Colon, método de</p><p>rastreamento alternativo à colonoscopia clássica invasiva; estudo dos</p><p>pesquisadores israelenses Samuel Adler, do Hospital Bikur Cholim, e Yoav</p><p>Metzger, da Universidade Hebraica de Jerusalém, atesta sua e�cácia.151</p><p>A internet dos corpos contempla desde a “wearable technology” associada ao</p><p>�tness (smartwatches, �tness trackers) aos microchips para �ns de identi�cação</p><p>biométrica ou concessão de autorização. A fabricante Biohax já implantou mais</p><p>de 4 mil microchips para substituir chaves, milhares de suecos estão</p><p>implantando microchips em seus corpos para substituir cartões-chave,</p><p>identidades e até passagens de trem (de 2015 a 2018, 3 mil suecos se</p><p>submeteram ao procedimento). Outro exemplo são os adesivos eletrônicos para</p><p>a pele (wearables médicos), amplamente adotados para monitoramento</p><p>cardiovascular, controle de diabetes, detecção de temperatura, suor e</p><p>monitoramento de biomarcadores.</p><p>Ao permitir o monitoramento próximo e contínuo, a internet dos corpos</p><p>pode dar suporte a sistemas de saúde na detecção precoce e na prevenção de</p><p>doenças, ser e�caz na reabilitação de pacientes após cirurgia ou medicação, e</p><p>contribuir no combate a doenças pandêmicas, como a covid-19. Os</p><p>dispositivos inteligentes promovem, entre outros, o rastreamento remoto de</p><p>pacientes, estilos de vida saudáveis, a medicina preventiva e de precisão, a</p><p>segurança no local de trabalho. Trazem, contudo, riscos à segurança e à</p><p>privacidade, suscitando novos desa�os para a governança de dados:</p><p>privacidade, autonomia individual, biohacking, riscos de discriminação e viés,</p><p>além dos problemas de modelagem e desenvolvimento.</p><p>Os alertas não são novos. Em 2018, por exemplo, Andrea M. Matwyshyn,</p><p>professora de Direito e Ciência da Computação da Universidade Northeastern,</p><p>publicou um artigo no Wall Street Journal em que reconhece os extraordinários</p><p>benefícios desses dispositivos, mas alerta sobre os riscos associados, tais como a</p><p>segurança física, a autonomia e o bem-estar.152</p><p>Entre as questões éticas, talvez o maior desa�o a enfrentar seja a ameaça à</p><p>privacidade. Como todas as tecnologias conectadas, os dispositivos da IoB</p><p>geram grandes volumes de dados, particularmente dados sensíveis,</p><p>categorizados pela Lei Geral de Proteção de Dados Pessoais (LGPD) como</p><p>aqueles que revelam atributos pessoais, incluindo informações genéticas,</p><p>biométricas e de saúde. Essa coleta, armazenamento, uso e compartilhamento</p><p>em larga escala de dados pessoais, em geral, não estão previstos nas</p><p>regulamentações vigentes (pelo menos em sua ampla abrangência).</p><p>O Fórum Econômico Mundial (WEF), em colaboração com autoridades de</p><p>saúde pública, empresas líderes de tecnologia e outras partes interessadas, está</p><p>empenhado em desenvolver e testar novas abordagens para o tratamento ético</p><p>do compartilhamento de dados de saúde coletados por dispositivos portáteis.</p><p>Em julho de 2020, o WEF publicou o relatório de autoria de Xiao Liu e Je�</p><p>Merritt, ambos os pesquisadores vinculados ao WEF, Shaping the Future of the</p><p>Internet of Bodies: New Challenges of Technology Governance (Moldando o futuro</p><p>da internet dos corpos: novos desa�os da governança de tecnologia), que versa sobre</p><p>as implicações desses dispositivos para a privacidade e a equidade, além do uso</p><p>dos dados para �ns de vigilância pública. “Estamos no início de um importante</p><p>diálogo que terá grandes implicações para a saúde pública, a segurança e a</p><p>economia global e também pode, em última análise, desa�ar a forma como</p><p>pensamos sobre nossos corpos e o que signi�ca ser humano”, ponderam os</p><p>autores.153</p><p>O relatório examina a governança de dados da internet dos corpos nos</p><p>Estados Unidos comparativamente à regulamentação da União Europeia,</p><p>salientando a urgência de atualizar as abordagens de governança e as leis de</p><p>proteção de dados. As regulamentações norte-americanas são setoriais, com leis</p><p>especí�cas para distintos tipos de informação, usuário e contexto. Na Europa,</p><p>como pondera o WEF, o Regulamento Geral de Proteção de Dados (GDPR) é</p><p>um regulamento não setorial e tecnologicamente neutro, que fornece diretrizes</p><p>para os procedimentos de coleta e processamento de dados pessoais. Para os</p><p>autores, tanto nos Estados Unidos quanto na União Europeia, existem lacunas</p><p>entre as leis antidiscriminação e o novo risco de discriminação decorrente de</p><p>inferências, per�s e agrupamentos baseados nos dados originados na internet</p><p>dos corpos.</p><p>Os benefícios das novas tecnologias digitais são incontestáveis; em troca</p><p>deles, entregamos nossos dados. Desconhecemos, contudo, como, onde e para</p><p>que nossos dados são usados. Desconhecemos suas implicações, presentes e</p><p>futuras. A aceleração de novas descobertas e novas aplicações aumenta a lacuna</p><p>entre o conhecimento dos legisladores e o dos desenvolvedores, quase que</p><p>inviabilizando a atualização contínua dos arcabouços regulatórios. Desa�o e</p><p>impasse dos tempos atuais.</p><p>Novas fronteiras da inteligência arti�cial: IA</p><p>emocional e chatbot terapêutico</p><p>28.5.2021</p><p>No livro Klara e o Sol, do Prêmio Nobel Kazuo Ishiguro, Klara é um “amigo</p><p>arti�cial” (AA).154 No empenho de obter autorização para abrir a “caixa-preta”</p><p>e entender o funcionamento dos AAs, o Sr. Capaldi argumenta com Klara: “As</p><p>pessoas estão falando que vocês �caram inteligentes demais. Elas conseguem</p><p>ver o que vocês fazem. Aceitam que as suas decisões, recomendações, são</p><p>sensatas e con�áveis, e quase sempre estão corretas. Mas as pessoas não gostam</p><p>de não saber como vocês chegam a essas decisões”.</p><p>Gradativamente, decisões estão sendo tomadas por algoritmos de</p><p>inteligência arti�cial, suscitando certo desconforto pelo “problema da</p><p>interpretabilidade”, como os cientistas denominam a caixa-preta desses</p><p>modelos (desconhecimento de como são gerados os resultados). Esse relativo</p><p>desconforto, contudo, não tem impedido a crescente e diversi�cada</p><p>aplicabilidade da IA. Uma nova fronteira é a “inteligência arti�cial emocional”</p><p>(“IA emocional” ou “computação afetiva”); baseada em sistemas que medem,</p><p>simulam e reagem às emoções humanas, a tecnologia promove uma interação</p><p>“natural” e personalizada entre humanos e máquinas.</p><p>Lidando com grandes conjuntos de dados, os sistemas são capazes de captar</p><p>os “dados emocionais” do usuário em tempo real, combinando dados</p><p>biométricos e �siológicos coletados por meio de análise de texto e imagem, de</p><p>reconhecimento de microexpressões faciais e nuanças no tom de voz, de</p><p>monitoramento do movimento dos olhos e frequência cardíaca, e até do nível</p><p>de imersão neurológica.</p><p>Os críticos acusam a tecnologia de ser imprecisa e preconceituosa, além de</p><p>ameaçar a privacidade. Com o propósito de conscientizar sobre seus potenciais</p><p>danos, uma equipe liderada</p><p>palestrantes ou público</p><p>debatedor, num espectro amplo que ia desde o �lósofo inglês Nick Bostrom,</p><p>autor do livro Superintelligence, que abriu a conferência, até Yann LeCun, à</p><p>época chefe de inteligência arti�cial do Facebook, e o Prêmio Nobel Daniel</p><p>Kahneman (com quem tive a honra de tomar um café no Village, dois dias</p><p>depois). A conferência originou o livro Ethics of Arti�cial Intelligence (2020),</p><p>coletânea de 17 ensaios inéditos organizada pelo �lósofo S. Matthew Liao,</p><p>sobre o qual �z uma resenha para a revista TECCOGS, do Programa</p><p>Tecnologias da Inteligência e Design Digital (TIDD), da PUC-SP.10 Sem</p><p>dúvida, foi uma excepcional boas-vindas ao campo da inteligência arti�cial.</p><p>Os resultados positivos dos modelos empíricos de IA ainda são recentes, e o</p><p>mercado editorial tem relativamente poucos títulos sobre isso, particularmente</p><p>no Brasil, e menos ainda em linguagem acessível ao público leigo. Este livro</p><p>pretende preencher essa lacuna e transmitir os fundamentos e a lógica da</p><p>inteligência arti�cial por meio da associação a temáticas correntes. Trata-se de</p><p>uma coletânea de artigos da minha coluna na revista Época Negócios,</p><p>publicados entre junho de 2019 e abril de 2022, agrupados em 12 grandes</p><p>temas: “Fundamentos e lógica da IA”, “IA e mercado de trabalho”, “Justiça e</p><p>ética na IA”, “A IA e o problema do viés”, “A Economia de Dados e o poder</p><p>das big techs”, “Iniciativas regulatórias”, “IA e saúde”, “IA no combate à covid-</p><p>19”, “A IA e o clima”, “IA e cultura”, “Interação humano-máquina” e</p><p>“Pensando o futuro”. Cada parte é precedida de uma pequena apresentação.</p><p>As tecnologias não são todas iguais, algumas adicionam valor incremental à</p><p>sociedade e outras são disruptivas. Ao recon�gurar a lógica de funcionamento</p><p>da economia e aportar inéditos modelos de negócios, as disruptivas provocam</p><p>períodos de reorganização no que Joseph Schumpeter denominou de</p><p>“destruição criativa”. As tecnologias de propósito geral (general purpose</p><p>technologies, GPT) estão nesse último bloco. São tecnologias-chave, moldam</p><p>toda uma era e reorientam as inovações nos setores de aplicação, como a</p><p>máquina a vapor, a eletricidade e o computador. A inteligência arti�cial é a</p><p>tecnologia de propósito geral do século XXI e tende a impactar cada vez mais a</p><p>vida em sociedade. Com a IA migramos de um mundo dominado por</p><p>máquinas programadas para um mundo de máquinas probabilísticas,</p><p>implicando lógicas e riscos distintos. O mundo da inteligência arti�cial é bem</p><p>mais complexo, temos de aprender a habitar esse mundo para continuar sendo</p><p>relevantes, pro�ssional e socialmente.</p><p>A</p><p>lgoritmos de IA estão em toda parte. Numa sociedade hiperconectada,</p><p>vivemos em ambientes técno-sociais inteligentes em que a sociabilidade e a</p><p>comunicação geram dados digitais. A IA já domina o mercado de ações,</p><p>compõe música, produz arte, dirige carros, escreve artigos de notícias,</p><p>prognostica tratamentos médicos, decide sobre crédito e contratação,</p><p>recomenda entretenimento, e tudo isso ainda em seus primórdios.</p><p>Na última década, a IA tornou-se a tecnologia de propósito geral do século</p><p>XXI. A tendência é que a lógica da IA torne-se hegemônica na geração de</p><p>riqueza, criando um valor econômico sem precedentes. Estamos migrando,</p><p>aceleradamente, para a Economia de Dados, ou Capitalismo de Dados, ou</p><p>Capitalismo “Dadocêntrico”, termos que expressam um modelo econômico</p><p>cuja matéria-prima estratégica são os dados.</p><p>Os �lmes de �cção cientí�ca, e as narrativas subsequentes, confundem a</p><p>fronteira entre �cção e realidade. A IA hoje é “mera” função matemática que,</p><p>ao ser capaz de lidar com o big data, gradativamente, vem assumindo o</p><p>protagonismo nas relações socioeconômicas. A subjetividade humana, contudo,</p><p>é decisiva em todas as etapas do desenvolvimento e da interpretação dos</p><p>resultados. São os especialistas humanos que constroem os modelos, de�nem os</p><p>parâmetros, criam as bases de dados, selecionam o domínio da aplicação; os</p><p>preconceitos e valores humanos estão presentes em cada decisão de cada etapa</p><p>do processo.</p><p>Como toda tecnologia, a IA é social e humana, seus efeitos dependem do</p><p>que os seres humanos fazem com ela, como a percebem, como a experimentam</p><p>e usam, como a inserem nos ambientes técnico-sociais. Cabe à sociedade</p><p>humana deliberar, dentre inúmeras questões, sobre se a IA deve ser aplicada em</p><p>todos os domínios e para executar todas as tarefas, e se o uso da IA em</p><p>aplicações de alto risco se justi�ca. O desa�o é buscar o equilíbrio entre mitigar</p><p>(ou eliminar) os riscos e preservar o ambiente de inovação, sem supervalorizar</p><p>nem demonizar a IA.</p><p>Este bloco contempla sete artigos que introduzem os fundamentos básicos</p><p>da IA, desde as distinções entre redes neurais e cérebro humano até elementos</p><p>críticos como as limitações intrínsecas à técnica e a relevância da qualidade da</p><p>base de dados.</p><p>O que é a inteligência arti�cial hoje?</p><p>28.6.2019</p><p>No �lme Matrix (Lilly e Lana Wachowski, 1999), o hacker Neo descobre</p><p>que o mundo é mera simulação de computador, e que as máquinas inteligentes</p><p>declararam guerra à humanidade. No �lme britânico Ex-Machina (Alex</p><p>Garland, 2015), um funcionário do buscador Bluebook se defronta com robôs</p><p>com inteligência arti�cial e tem com eles diálogos assustadores. Em palestra em</p><p>São Paulo, o �lósofo francês Edgar Morin, com a lucidez de seus 97 anos,</p><p>enfatizou que o papel das artes é de sensibilizar e fazer compreender. No caso</p><p>da inteligência arti�cial, contudo, a �cção confunde mais do que elucida: não</p><p>há nenhum indício cientí�co de um futuro com robôs subjugando os</p><p>humanos.</p><p>A IA faz parte da nossa vida cotidiana. Acessamos sistemas inteligentes para</p><p>programar o itinerário com o Waze, pesquisar no Google e receber da Net�ix e</p><p>do Spotify recomendações de �lmes e músicas. A Amazon captura nossas</p><p>preferências no �uxo de dados que coleta a partir das nossas interações com a</p><p>plataforma. A Siri, da Apple, e a Alexa, da Amazon, são assistentes pessoais</p><p>digitais inteligentes que nos ajudam a localizar informações úteis com acesso</p><p>por meio de voz.</p><p>Os algoritmos de inteligência arti�cial mediam as interações nas redes</p><p>sociais, como a seleção do que será publicado no feed de notícias do Facebook.</p><p>Eles estão igualmente presentes nos diagnósticos médicos, nos sistemas de</p><p>vigilância, na prevenção a fraudes, nas análises de crédito, nas contratações de</p><p>RH, na gestão de investimento, na indústria 4.0, no atendimento</p><p>automatizado (chatbot); bem como nas estratégias de marketing, nas pesquisas,</p><p>na tradução de idiomas, no jornalismo automatizado, nos carros autônomos,</p><p>no comércio físico e virtual, nos canteiros de obras, nas perfurações de</p><p>petróleo, na previsão de epidemias. Estamos na era da personalização,</p><p>viabilizada pela extração das informações contidas nos dados que geramos em</p><p>nossas movimentações online.</p><p>A maioria dos avanços observados na última década provém do modelo</p><p>chamado de deep learning (aprendizado profundo), técnica de machine learning</p><p>(aprendizado de máquina), subárea da inteligência arti�cial, que consiste em</p><p>técnicas estatísticas que permitem que as máquinas “aprendam” com os dados</p><p>(e não sejam programadas).</p><p>Na década de 1980, um grupo restrito de pesquisadores – Geo�rey Hinton,</p><p>Yoshua Bengio e Yann LeCun –, inspirado no funcionamento do cérebro</p><p>biológico, propôs o caminho das redes neurais para o aprendizado de máquina,</p><p>obtendo reconhecimento de�nitivo em 2012, ao vencer a competição</p><p>ImageNet. Nos anos seguintes, elas se tornaram onipresentes, recebendo</p><p>expressivos investimentos das gigantes de tecnologia que incorporaram a</p><p>inteligência arti�cial em seus modelos de negócio. Cerca de 100 serviços do</p><p>Google, por exemplo, usam IA.</p><p>Deep learning é um modelo estatístico de previsão de cenários futuros e a</p><p>probabilidade de eles se realizarem e quando; a denominação provém da</p><p>profundidade das camadas que formam a arquitetura das redes neurais.</p><p>Correlacionando grandes quantidades de dados, os algoritmos de IA são</p><p>capazes de estimar com mais</p><p>por Alexa Hagerty – pesquisadora da Universidade</p><p>de Cambridge, do Leverhulme Centre for the Future of Intelligence e do Ada</p><p>Lovelace Institute – criou o aplicativo emojify.info para o usuário experimentar</p><p>o reconhecimento de emoções utilizando sua própria câmera.155 Financiado</p><p>pela National Endowment for Science, Technology and the Arts (Nesta), o</p><p>aplicativo não coleta dados pessoais, e as imagens são armazenadas no</p><p>dispositivo do usuário. “É uma forma de reconhecimento facial, mas vai além,</p><p>porque, em vez de apenas identi�car as pessoas, a�rma ler em nosso rosto as</p><p>nossas emoções, os nossos sentimentos internos”, alerta Hagerty sobre a IA</p><p>emocional.</p><p>A próxima geração promete ser os chatbots “assistentes terapêuticos” ou</p><p>“agentes de conversação automatizada”. Entre os projetos em curso, destaca-se</p><p>o chatbot Woebot, inicialmente disponível apenas no Facebook, com interação</p><p>via Messenger, e agora podendo ser baixado gratuitamente na Apple Store e no</p><p>Google Play (Woebot – Your Self-Care Expert).</p><p>Desenvolvido por pesquisadores da Universidade de Stanford com a missão</p><p>de “tornar a saúde mental radicalmente acessível”, o Woebot oferece terapia</p><p>virtual com uso de inteligência arti�cial. O foco do aplicativo são as terapias</p><p>cognitivo-comportamentais (TCC). Por 10 minutos diários de atendimento a</p><p>39 dólares ao mês, os “pacientes” são estimulados a contar suas reações</p><p>emocionais aos eventos do cotidiano e, a partir delas, identi�car as armadilhas</p><p>psicológicas que originam estresse, ansiedade e depressão. Segundo Michael</p><p>Evers, CEO da Woebot Health Inc.: “Estamos construindo instrumentos</p><p>clínicos e terapêuticas digitais que automatizam o conteúdo e o processo de</p><p>terapia, adaptam-se aos sintomas e à gravidade e fornecem a intervenção certa</p><p>para a pessoa certa no momento certo. Eles estão na vanguarda de uma nova</p><p>geração de intervenções que realmente tornarão a saúde mental radicalmente</p><p>acessível a todos”.156</p><p>Numa pesquisa publicada na revista JMIR Formative Research, a Woebot</p><p>Health pondera que os resultados são “comparáveis aos serviços tradicionais</p><p>prestados por humanos em todas as modalidades de tratamento e foram</p><p>signi�cativamente mais altos do que programas computadorizados de terapia</p><p>cognitivo-comportamental (CCBT)”.157 Com base numa amostra de 36.070</p><p>usuários, entre 18 e 78 anos, 57,48% do sexo feminino, o estudo conclui que:</p><p>“Embora os vínculos sejam frequentemente presumidos como domínio</p><p>exclusivo das relações terapêuticas humanas, nossos achados desa�am a noção</p><p>de que a terapêutica digital é incapaz de estabelecer um vínculo terapêutico</p><p>com os usuários”. Esse vínculo, segundo apurado pela pesquisa, foi estabelecido</p><p>num intervalo de apenas três a cinco dias, mantendo-se estável ao longo do</p><p>tempo.</p><p>A fundadora e presidente da Woebot Health, Alison Darcy, psicóloga e</p><p>cientista da computação, em suas pesquisas na Universidade de Stanford,</p><p>contou com a colaboração do reconhecido especialista em inteligência arti�cial</p><p>Andrew Ng, ambos interessados em como a IA poderia ajudar as pessoas com</p><p>problemas de saúde mental. Para Darcy: “A capacidade de estabelecer um</p><p>vínculo, e fazê-lo com milhões de pessoas ao mesmo tempo, é o segredo para</p><p>desvendar o potencial da terapêutica digital como nunca antes. Estamos</p><p>entusiasmados por estar na vanguarda desta linha de pesquisa”.158</p><p>A covid-19, com seus efeitos perversos sobre a saúde mental, acelera essas</p><p>tendências. Para dar conta do aumento da demanda por serviços de psicólogos,</p><p>psicanalistas e psiquiatrias, e igualmente pelas restrições impostas pela</p><p>quarentena, proliferam plataformas habilitadas por tecnologias baseadas em</p><p>vídeo e mediadas pela internet – programas habilitados de realidade virtual e</p><p>IA. A Frontiers in Psychiatry, revista cientí�ca revisada por pares, publicou um</p><p>estudo sobre o uso de terapia cognitivo-comportamental via internet; com</p><p>2.866 participantes em três categorias – transtornos de ansiedade, depressão e</p><p>outros –, observou resultados positivos, particularmente entre os nativos</p><p>digitais (crianças, adolescentes e adultos jovens): 65,6% de todos os pacientes</p><p>responderam, e cerca de um terço alcançou a remissão.159</p><p>A técnica que permeia atualmente a maior parte das aplicações de</p><p>inteligência arti�cial (redes neurais profundas/deep learning) ainda está em seus</p><p>primórdios, concretizada efetivamente na última década. Há certo</p><p>encantamento por parte da sociedade sobre seus benefícios, que, efetivamente,</p><p>são extraordinários, mas é imprescindível a consciência de suas limitações e</p><p>seus riscos, particularmente quando se associa IA e saúde mental.</p><p>Nem tudo é tecnologia: são múltiplas as formas</p><p>prazerosas de escape</p><p>21.1.2022</p><p>Ficção: Rue, personagem principal da série Euphoria, interpretada pela atriz,</p><p>cantora e compositora Zendaya, foi diagnosticada ainda bem jovem com</p><p>transtorno obsessivo compulsivo (TOC), transtorno de dé�cit de atenção</p><p>(TDAH) e transtorno de ansiedade geral (TAG), sendo medicada por anos</p><p>com drogas lícitas. Aos 17, Rue é dependente de drogas lícitas e ilícitas. A série</p><p>da HBO, criada e produzida por Sam Levinson a partir de sua própria</p><p>experiência de adolescente e baseada na série original israelense de 2012, retrata</p><p>o cotidiano de um grupo de adolescentes do ensino médio norte-americano e</p><p>os excessos de consumo de drogas, álcool, sexo e mídias sociais. Elogiada pela</p><p>crítica, a série tem 80% de aprovação no Rotten Tomatoes (site norte-</p><p>americano agregador de críticas de cinema e televisão, fundado em 1998 e</p><p>desde 2011 de propriedade da Warner Bros.).</p><p>Realidade: David, norte-americano de 20 anos, no segundo ano da</p><p>faculdade, recorreu ao serviço de saúde mental da universidade, buscando</p><p>ajuda para ansiedade e baixo desempenho escolar. Após uma consulta e um</p><p>teste de menos de cinco minutos, David foi diagnosticado com transtorno de</p><p>dé�cit de atenção (TDAH) e transtorno de ansiedade generalizada (TAG). O</p><p>psicólogo que administrou o teste recomendou um psiquiatra, que receitou</p><p>Paxil para tratar depressão e ansiedade, e Adderall para tratar TDAH. Após</p><p>anos de medicação, David tornou-se dependente de drogas lícitas e ilícitas.</p><p>David (nome �ctício) é paciente na clínica para dependentes da Dra. Anna</p><p>Lembke (que se reconhece como dependente de leitura de romances), médica</p><p>diretora da Stanford Addiction Medicine e chefe da Stanford Addiction</p><p>Medicine Dual Diagnosis Clinic, premiada por pesquisas em doenças mentais</p><p>e membro de conselhos de organizações estaduais e nacionais. No livro Nação</p><p>dopamina: por que o excesso de prazer está nos deixando infelizes e o que podemos</p><p>fazer para mudar,160 Lembke pondera: “somos atraídos para qualquer uma das</p><p>formas agradáveis e fuga, que agora estão disponíveis para nós: coquetéis da</p><p>moda, a câmara de ressonância da mídia social, maratona de reality shows, uma</p><p>noite de pornô pela internet, batatas fritas e fast food, video games envolventes,</p><p>romances baratos de vampiro... A lista realmente não acaba”.</p><p>Segundo Lembke, atualmente, mais de um em cada 10 norte-americanos</p><p>toma antidepressivo (110 pessoas por 1.000) – Islândia (106/1.000), Austrália</p><p>(89/1.000), Canadá (86/1.000), Dinamarca (85/1.000), Suécia (79/1.000) e</p><p>Portugal (78/1.000). Entre 25 países, a menor proporção é da Coreia</p><p>(13/1.000). Em quatro anos, o consumo de antidepressivos aumentou 46% na</p><p>Alemanha e 20% na Espanha e em Portugal; as prescrições de estimulantes</p><p>(Adderall, Ritalina) dobraram nos Estados Unidos entre 2006 e 2016, inclusive</p><p>em crianças menores de 5 anos; e entre 1996 e 2013, o número de adultos que</p><p>receberam uma receita de benzodiazepínicos aumentou 67%. Em paralelo,</p><p>entre 2002 e 2013, a dependência de álcool aumentou 50% em adultos com</p><p>mais de 65 anos e 84% em mulheres.</p><p>Relatório da Association of Schools and Programs of Public Health</p><p>(ASPPH),161 de novembro de 2019, concluiu: a tremenda expansão de</p><p>prescrição de opioides lícitos aumentou a dependência e a transição para</p><p>opioides ilícitos, e em seguida, exponencialmente, o número de overdoses.</p><p>Overdoses de opioides mataram</p><p>mais norte-americanos do que armas ou</p><p>acidentes de carro.</p><p>Segundo o Departamento de Saúde e Serviços Humanos dos Estados</p><p>Unidos, países com piores perspectivas econômicas são mais propensos a ter</p><p>taxas mais altas de prescrições de opioides, hospitalizações relacionadas a</p><p>opioides e mortes por overdose de drogas. Segundo a mesma a instituição,</p><p>norte-americanos que usam o Medicaid, seguro de saúde �nanciado pelo</p><p>governo federal para pobres e vulneráveis, recebem duas vezes mais analgésicos</p><p>opioides do que pacientes não Medicaid e morrem de opioides de três a seis</p><p>vezes mais que pacientes não Medicaid.162</p><p>Estudo dos economistas de Princeton Anne Case e Angus Deaton constatou</p><p>que os norte-americanos brancos de meia-idade sem diploma universitário</p><p>estão morrendo mais jovens que seus pais, avós e bisavós; as três principais</p><p>causas de morte nesse grupo são overdose de drogas, doença hepática</p><p>relacionada ao álcool e suicídio, mortes denominadas por Case e Deaton de</p><p>“mortes por desespero”.163</p><p>No Brasil existem diversos estudos sobre dependência de drogas lícitas e</p><p>ilícitas. Um dos mais recentes, realizado na Universidade de São Paulo, sobre</p><p>pacientes internados por traumas em serviços de emergência na cidade – “Use</p><p>of alcohol and illicit drugs by trauma patients in Sao Paulo, Brazil” –,</p><p>constatou a prevalência de substâncias psicoativas em 31,4% dos pacientes, em</p><p>especial álcool e cocaína, o que provavelmente contribuiu para um terço dos</p><p>acidentes de carro com lesões.164</p><p>Esse sucinto panorama do nível de dependência mundial das mais variadas</p><p>“formas prazerosas de escape” serve como argumento da necessidade de focar</p><p>nas causas dos problemas sociais, e não nos seus efeitos.165 Sim, os modelos de</p><p>negócio das redes sociais e dos games online são concebidos, design e dinâmica,</p><p>para reter os usuários nas respectivas plataformas, ou seja, “viciá-los”. Contudo,</p><p>a título de especulação – ou investigação dos especialistas –, a causalidade não</p><p>poderia ser inversa? Parte do sucesso dessas plataformas não poderia decorrer</p><p>da propensão dos usuários a buscar “formas prazerosas de escape”?</p><p>No livro Games viciam: fato ou �cção?, os autores, entre eles as psicólogas da</p><p>Pontifícia Universidade Católica de São Paulo (PUC-SP) Ivelise Fortim e</p><p>Maria �ereza Alencar Lima, com base em evidências cientí�cas, dedicam-se a</p><p>responder à pergunta-título.166 Segundo os autores, estudos identi�caram</p><p>prevalência de dependência de games em entre 0,3 e 3% da população,</p><p>concentrados em países asiáticos, especialmente Japão, China e Coreia do Sul;</p><p>nos países ocidentais o percentual é bem menor (não existe pesquisa no Brasil).</p><p>Parcela muito signi�cativa dos usuários com dependência em games apresentam</p><p>concomitantemente outros problemas emocionais. “Quando relatado na mídia,</p><p>o foco muitas vezes recai sobre os raríssimos usuários de jogos online que</p><p>morreram em suas cadeiras por falta de comida, água, ou por permanecerem</p><p>inúmeras horas na mesma posição, provocando trombose”, ponderam os</p><p>autores. (Gerou polêmica entre os especialistas a inclusão, em 2018, pela</p><p>Organização Mundial de Saúde [OMS] – 11ª edição da Classi�cação</p><p>Internacional de Doenças [CID-11] – da “gaming desordem” na categoria de</p><p>dependências comportamentais.) Lembke lista as principais causas da crescente</p><p>dependência: fácil acesso (online e o�ine), tempo livre e falta de opções de</p><p>lazer, mudanças culturais e comportamentais, mudança na dinâmica familiar.</p><p>Um dia típico de um trabalhador médio nos Estados Unidos pouco antes da</p><p>Guerra Civil (1861-1865), por exemplo, consumia de 10 a 12 horas/dia;</p><p>atualmente, o número típico de horas trabalhadas nos Estados Unidos é de 3,8</p><p>horas/dia (número semelhante ao de países de alta renda). O tempo livre é</p><p>inversamente proporcional ao status socioeconômico (os adultos nos Estados</p><p>Unidos sem diploma de ensino médio têm 42% mais tempo livre do que os</p><p>adultos com diploma de bacharelado ou mais) e, consequentemente, ao acesso</p><p>a opções de lazer.</p><p>A covid-19 não é a única epidemia da sociedade atual, como também não o</p><p>são as redes sociais e os games online, cenário agravado pela crescente</p><p>desigualdade – desde o início da pandemia um novo bilionário surgiu a cada</p><p>26 horas, a riqueza dos 10 homens mais ricos do mundo dobrou, a situação de</p><p>99% da humanidade piorou e mais de 160 milhões foram empurrados para a</p><p>pobreza.167 Regulamentar os modelos de negócio baseados em dados é crítico,</p><p>sem negligenciar, como diz Evgeny Morozov, que “o verdadeiro inimigo não é</p><p>a tecnologia, mas o atual regime político e econômico”.168</p><p>A</p><p>canadense BlueDot, plataforma de inteligência arti�cial (IA) que ras- treia</p><p>doenças infecciosas, sinalizou, nove dias antes da Organização Mundial da</p><p>Saúde (OMS), casos de pneumonia incomum detectados no mercado em</p><p>Wuhan, cidade chinesa de origem da covid-19. Pesquisadores mundo afora</p><p>desenvolveram soluções de IA no enfrentamento da pandemia para rastrear o</p><p>surto, diagnosticar pacientes, desinfectar áreas e acelerar o desenvolvimento de</p><p>vacinas. Em fevereiro de 2020, a Missão OMS-China divulgou um relatório</p><p>sobre a resposta inicial à pandemia, ressaltando o protagonismo da IA.169</p><p>Ao longo do tempo, contudo, a prática evidenciou as limitações inerentes às</p><p>técnicas de IA. Baseadas em extrair padrões de grandes conjuntos de dados, a</p><p>qualidade dos dados é fator crítico.170 Como pondera a OECD: “Embora a</p><p>covid-19 esteja mostrando que a IA pode oferecer benefícios em situações de</p><p>crise, também atesta o hype em torno da IA”.171</p><p>Pela dimensão da crise e a percepção inicial favorável a essas tecnologias, a</p><p>coluna dedicou seis artigos à covid-19 abordando as ameaças à privacidade e à</p><p>liberdade (sem deixar de reconhecer os benefícios), as restrições ao uso de</p><p>dados sensíveis e a vida mediada pelas máquinas durante a quarentena, e</p><p>introduzem o conceito de “epidemiologia digital” com os procedimentos</p><p>inovadores de monitoramento de epidemias. O sexto e último artigo, diante</p><p>das evidências, pondera sobre as limitações dos modelos de IA que</p><p>comprometem os resultados.</p><p>Sistemas de vigilância digital: combatem o</p><p>coronavírus, mas ameaçam a privacidade e a liberdade</p><p>27.3.2020</p><p>O �lósofo sul-coreano Byung-Chul Han, professor na Universidade de</p><p>Berlim, é atualmente o pensador asiático de maior sucesso no Ocidente.</p><p>Crítico das redes sociais e da sociedade contemporânea, suas declarações</p><p>“viralizam”, e suas publicações �guram entre os conteúdos mais lidos. Em 22</p><p>de março, o �lósofo publicou no El País um artigo intitulado “O coronavírus</p><p>de hoje e o mundo de amanhã”, com enorme repercussão nas mídias digitais,</p><p>inclusive no Brasil.172</p><p>Byung-Chul Han, aparentemente, não é crítico em relação aos sistemas de</p><p>vigilância e controle. O �lósofo argumenta que uma das vantagens da Ásia no</p><p>combate à epidemia são seus sistemas de vigilância digital, particularmente na</p><p>China e na Coreia do Sul. Segundo ele, o sistema da China permite lidar</p><p>melhor com a epidemia, por outro lado, as leis de proteção de dados agravam o</p><p>quadro da Europa: “Pode-se dizer que as epidemias na Ásia não são combatidas</p><p>apenas por virologistas e epidemiologistas, mas sobretudo por cientistas da</p><p>computação e especialistas em big data. Uma mudança de paradigma sobre a</p><p>qual a Europa ainda não aprendeu”.</p><p>Com seus 200 milhões de câmaras equipadas com so�sticadas tecnologias</p><p>de reconhecimento facial, na China o controle é praticamente total. Sua</p><p>e�ciência, em parte, é em função do compartilhamento irrestrito dos dados dos</p><p>cidadãos entre os provedores de telefonia e internet e os órgãos do governo. No</p><p>auge da crise do coronavírus, o mundo assistiu, alguns perplexos, agentes do</p><p>governo com câmeras equipadas com medidores de temperatura do corpo</p><p>humano interceptando chineses na entrada do metrô, por exemplo, e os</p><p>conduzindo para triagem. Os drones, igualmente espalhados pelas ruas,</p><p>detectavam se um cidadão, supostamente em quarentena, saiu de casa; nesse</p><p>caso, os próprios drones ordenavam seu retorno imediato.</p><p>Um novo software, obrigatório</p><p>nos smartphones chineses, identi�ca quem</p><p>deve ou não ser colocado em quarentena ou liberado para o transporte público.</p><p>A primeira experiência do programa aconteceu na cidade de Hangzhou (sede</p><p>da Alibaba e de seu “braço” �nanceiro, Ant Financial), hoje já implantado em</p><p>200 cidades e, em breve, em todo o país. Criado pela gigante de tecnologia</p><p>Alibaba, o software recebeu a denominação de “Código de Saúde Alipay”: a cor</p><p>do código indica o estado de saúde do dono do dispositivo. Após o usuário</p><p>preencher um formulário na Alipay com detalhes pessoais, o software gera um</p><p>código QR em uma das três cores: verde, liberado; amarelo, em casa por sete</p><p>dias; e vermelho, quarentena de duas semanas.</p><p>Em Hangzhou é quase impossível se locomover sem mostrar o código</p><p>Alipay (98,2% da população da província de Zhejiang, cuja capital é</p><p>Hangzhou, deram código verde; quase 1 milhão de pessoas, códigos amarelos e</p><p>vermelhos). O jornal �e New York Times analisou o código do software e</p><p>descobriu, contudo, que o sistema também compartilha informações com a</p><p>polícia, parceiro-chave no projeto, representando uma nova modalidade de</p><p>controle social (ainda não está claro se é conjuntural ou permanente).173</p><p>Como usual na China, não há transparência sobre os critérios de</p><p>classi�cação do software. Visando facilitar o entendimento dos ocidentais, os</p><p>autores do artigo do �e New York Times usaram uma analogia: “Nos Estados</p><p>Unidos, seria semelhante ao Centro de Controle e Prevenção de Doenças</p><p>(CDC) usar os aplicativos da Amazon e do Facebook para rastrear o</p><p>coronavírus e, em seguida, compartilhar silenciosamente as informações do</p><p>usuário com o escritório do xerife local”. Para Maya Wang, pesquisadora da</p><p>Human Rights Watch na China o surto de coronavírus está provando ser um</p><p>desses marcos na história da disseminação da vigilância em massa na China:</p><p>“Uma vez que esses sistemas estão em vigor, os envolvidos em seus</p><p>desenvolvimentos defendem sua expansão ou seu uso mais amplo, um</p><p>fenômeno conhecido como ‘mission creep’”.174 No entanto, corroborando a</p><p>visão de Byung-Chul Han, parece que os chineses não estão preocupados com</p><p>os efeitos sobre a privacidade num cenário pós-epidemia: as empresas e o</p><p>governo já possuem todos os seus dados, e o governo já os utiliza para exercer</p><p>controle sobre a população.</p><p>A efetividade dos sistemas de vigilância sobre a epidemia da covid-19 tem</p><p>estimulado governos de vários países a �exibilizar as legislações de proteção de</p><p>dados pessoais (ao menos enquanto durar a epidemia). Em Israel, num</p><p>primeiro teste, cerca de 400 pessoas receberam uma noti�cação do Ministério</p><p>da Saúde com o alerta de proximidade de alguém com resultado positivo para</p><p>o vírus. Nos Estados Unidos, segundo o �e Washington Post, o governo</p><p>solicitou ao Facebook e ao Google acesso aos dados de localização de seus</p><p>usuários, visando avaliar se eles estão respeitando as distâncias recomendadas; e</p><p>o Departamento de Saúde e Serviços Humanos (Department of Health and</p><p>Human Services) anunciou a suspensão de multas por violações relacionadas</p><p>aos padrões de privacidade de dados de saúde, facilitando a atuação dos</p><p>médicos. O governo inglês �rmou uma parceria com a operadora de telefonia</p><p>móvel O2: por meio da análise de dados anônimos de localização de</p><p>smartphone, pretende checar se seus usuários estão seguindo as diretrizes de</p><p>combate ao vírus.</p><p>A Assembleia Global de Privacidade (GPA) – principal fórum global de</p><p>proteção de dados e autoridades de privacidade, fundada em 1979 e com mais</p><p>de 130 membros – identi�cou mudanças relacionadas à privacidade de dados</p><p>em pelo menos 27 países. A GPA está atenta para conter potenciais abusos. Ao</p><p>tomarem essas decisões, as autoridades de proteção de dados em todo o mundo</p><p>estão priorizando vidas em detrimento da privacidade.</p><p>Entre inúmeros problemas que a sociedade enfrentará no pós-epidemia,</p><p>inclui-se o desa�o de retroceder os sistemas de vigilância, ao menos, aos níveis</p><p>anteriores à epidemia, evitando ampliar o controle dos governos sobre seus</p><p>cidadãos, clara ameaça à privacidade e à liberdade.</p><p>O protagonismo da inteligência arti�cial no combate à</p><p>covid-19</p><p>10.4.2020</p><p>Um gra�te em Hong Kong vaticina: “Não podemos voltar ao normal,</p><p>porque o que era normal era exatamente o problema”. A covid-19 escancarou</p><p>as de�ciências do mundo, a desigualdade se tornou assustadoramente visível,</p><p>colocando a sociedade diante de vários dilemas. Ainda é cedo para prever como</p><p>será o mundo pós-coronavírus, qual será o grau e a extensão dos impactos na</p><p>economia, na sociedade e na vida dos indivíduos. Provavelmente, não</p><p>transitaremos pelos espaços públicos com a mesma desenvoltura anterior à</p><p>epidemia (pelo menos não tão cedo).</p><p>A ciência está em alta, principalmente a ciência apoiada nas tecnologias</p><p>digitais. Nesse cenário, destaca-se o protagonismo da inteligência arti�cial; seus</p><p>algoritmos são treinados para entender as “regras”, tornando-se aptos a realizar</p><p>previsões com maior velocidade e acurácia. A e�ciência dos modelos depende</p><p>da quantidade e da qualidade dos dados de treinamento; no combate à covid-</p><p>19, proliferam iniciativas para compor e disponibilizar grandes bases de dados.</p><p>O propósito é identi�car padrões não visíveis, indícios, entre outros eventos, da</p><p>probabilidade de contaminação.</p><p>A China e a Coreia do Sul utilizaram tecnologias de rastreamento para</p><p>identi�car pacientes contaminados, adotadas posteriormente em vários países.</p><p>Nos Estados Unidos, pesquisadores do MIT desenvolveram uma tecnologia de</p><p>rastreamento de infectados pela covid-19 por meio do celular. O aplicativo</p><p>Private Kit mapeia os contatos pessoais entre os usuários (“rastreamento de</p><p>contatos”), visando antecipar potenciais áreas de contaminação. Para preservar</p><p>a privacidade, os dados coletados são anonimizados, impossibilitando a</p><p>individualização (o rastreamento é realizado sem o conhecimento ou a</p><p>permissão explícita do usuário). A equipe do MIT está em negociação com a</p><p>OMS e com o Departamento de Saúde e Serviços Humanos dos Estados</p><p>Unidos; o desa�o é conquistar ampla adesão, acumulando uma extensa base de</p><p>dados (um dos caminhos é através de alianças; a primeira foi �rmada com a</p><p>Clínica Mayo). O projeto do MIT ganhou a adesão de engenheiros do</p><p>Facebook (doação de tempo gratuito). Em paralelo, o Facebook e o Google</p><p>estão cooperando com uma força-tarefa da Casa Branca na análise de outras</p><p>tecnologias de rastreamento e localização para mitigar a epidemia.</p><p>Os sistemas inteligentes também são úteis em processos de triagem para</p><p>estimar o número de leitos necessários nos hospitais, avaliar a prioridade de</p><p>pacientes em unidade de terapia intensiva (UTI) e determinar a priorização de</p><p>pacientes na UTI para o uso de aparelhos de ventilação pulmonar. Com base</p><p>nos dados, os modelos de IA dão suporte a decisões médicas, agregando</p><p>velocidade e precisão, dois elementos valiosos numa crise dessa dimensão.</p><p>Outra aplicabilidade da inteligência arti�cial relacionada à covid-19 são os</p><p>robôs autônomos, treinados para executar tarefas especí�cas nos centros de</p><p>saúde, tais como desinfectar áreas e entregar materiais e medicamentos.</p><p>No Brasil, como no resto do mundo, instituições e pro�ssionais de saúde</p><p>estão colaborando no enfrentamento da epidemia. Um consórcio, por</p><p>exemplo, formado por hospitais, grupos de saúde e empresas de tecnologia,</p><p>com a participação do Hospital das Clínicas de São Paulo, está testando um</p><p>algoritmo de inteligência arti�cial para diagnóstico com base na análise de</p><p>imagens de tomogra�a de pulmão; um grupo de 450 radiologistas brasileiros,</p><p>de instituições públicas e privadas, organizou-se para compartilhar informações</p><p>sobre IA.</p><p>Pesquisadores do Hospital Renmin, da Universidade de Wuhan, da Wuhan</p><p>EndoAngel Medical Technology Company e da Universidade de Geociências</p><p>da China anunciaram um modelo de IA para detectar o vírus com 95% de</p><p>precisão.175 A startup canadense DarwinAI e pesquisadores da Universidade de</p><p>Waterloo desenvolveram o Covid-Net de código aberto, uma rede neural</p><p>convolucional criada para</p><p>detectar a covid-19 em imagens de raios X.176</p><p>O Kaggle – comunidade online de cientistas de dados, fundada em 2010 e</p><p>adquirida pelo Google em 2017 – propôs um desa�o em torno de 10 questões-</p><p>chave relacionadas ao coronavírus, incluindo perguntas sobre fatores de risco e</p><p>tratamentos que não envolvem medicamentos, propriedades genéticas do vírus</p><p>e esforços para desenvolver vacinas. Participam do projeto a Chan Zuckerberg</p><p>Initiative (instituição fundada por Mark Zuckerberg e Priscilla Chan com foco</p><p>em projetos sociais) e o Centro de Segurança e Tecnologias Emergentes da</p><p>Universidade de Georgetown.177</p><p>A comunidade cientí�ca mundo afora tem produzido uma quantidade</p><p>inédita de artigos; desde dezembro, foram publicados mais de 2 mil artigos</p><p>sobre a covid-19. O processamento de linguagem natural (natural language</p><p>processing, NLP), subárea da inteligência arti�cial voltada à compreensão</p><p>automática da linguagem humana, permite ler artigos cientí�cos e extrair</p><p>informações úteis em quantidade e velocidade inalcançáveis pelo ser humano,</p><p>mantendo atualizados os pro�ssionais da saúde e, consequentemente,</p><p>acelerando a descoberta de tratamentos e fatores de riscos desconhecidos. A</p><p>canadense CiteNet, em face da covid-19, abriu seu sistema de consulta ao</p><p>público, disponibilizando sua base de dados, continuamente atualizada, de</p><p>pesquisas e literatura cientí�ca.</p><p>O enfrentamento de epidemias por meio de análise de dados não é</p><p>novidade; a primeira experiência em larga escala ocorreu em fevereiro de 2008,</p><p>quando o Centro de Controle e Prevenção de Doenças (CDC) identi�cou um</p><p>crescimento de casos de gripe no leste dos Estados Unidos; na ocasião, o</p><p>Google declarou ter detectado um aumento nas consultas sobre os sintomas da</p><p>gripe duas semanas antes do lançamento do relatório. A partir dessa</p><p>experiência, sua unidade �lantrópica criou um sistema de alerta, o Google Flu</p><p>Trends. A metodologia estabeleceu correlações entre a frequência de</p><p>digitalização de certos termos de busca no Google e a disseminação da gripe ao</p><p>longo do tempo e do espaço, identi�cando regiões especí�cas em tempo real</p><p>(posteriormente, especialistas questionaram a veracidade/e�cácia desse</p><p>sistema).</p><p>No caso da epidemia da covid-19, o primeiro alerta veio da canadense</p><p>BlueDot, em 31 de dezembro de 2019, quando detectou uma nova forma de</p><p>doença respiratória na região do mercado de Wuhan, na China (nove dias antes</p><p>do primeiro comunicado da OMS). Por meio de análise avançada de dados</p><p>com tecnologias de inteligência arti�cial (“varrendo” milhares de fontes:</p><p>documentos de autoridades, publicações médicas, relatórios climáticos, cerca</p><p>de 100 mil jornais por dia em 65 idiomas, postagens em redes sociais), seu</p><p>software de risco identi�ca potenciais ameaças de doenças infecciosas,</p><p>capacitando governos, pro�ssionais e empresas da área de saúde; suas soluções</p><p>rastreiam, contextualizam e antecipam riscos de epidemias.</p><p>A missão da OMS na China, num relatório de 40 páginas divulgado em</p><p>março, documentou a relevância do big data e da inteligência arti�cial na</p><p>estratégia chinesa, particularmente no rastreamento de contatos para monitorar</p><p>a propagação da contaminação e no gerenciamento de populações prioritárias</p><p>(idosos e chineses com doenças prévias de risco).</p><p>A covid-19 transformou nosso cotidiano num �lme de �cção cientí�ca; a</p><p>devastação social não permite ver “o lado bom” da epidemia, mas é certo que</p><p>teremos avanços signi�cativos no campo da inteligência arti�cial, com novas</p><p>descobertas e novas aplicações.</p><p>As limitações da inteligência arti�cial no</p><p>enfrentamento da covid-19</p><p>24.4.2020</p><p>No livro Os sertões (1902), marco da literatura brasileira, o escritor e</p><p>jornalista Euclides da Cunha narra a sangrenta Guerra de Canudos no interior</p><p>da Bahia, liderada por Antônio Conselheiro. O livro expõe de forma realista a</p><p>vida dos jagunços e dos sertanejos. Descrevendo o cotidiano no acampamento</p><p>de Canudos, o escritor cria uma expressão muito apropriada aos tempos atuais:</p><p>“A vida normalizara-se naquela anormalidade”. A covid-19 implicou violações</p><p>inimagináveis às liberdades individuais: o direito de circular pelas ruas das</p><p>cidades, agora regulado pelo poder público. Provavelmente, até o �nal do ano</p><p>teremos “quarentenas intermitentes” (libera/�exibiliza, aumenta a</p><p>contaminação, retrocede) e um cenário econômico volátil. Nessa vida suspensa,</p><p>parte das expectativas está depositada nas tecnologias de inteligência arti�cial.</p><p>Enquete realizada pelo Aspen Institute, da Alemanha, em recente live,</p><p>indicou os campos com maior potencial para a IA no combate à epidemia:</p><p>36% em rastreamento (aplicativo de monitoramento de movimentação), 22%</p><p>no desenvolvimento de vacinas e 20% na previsão de propagação do vírus. No</p><p>campo da ética, 42% dos desa�os estão no gerenciamento de recursos</p><p>hospitalares e na triagem de pacientes e, empatados com 21%, o</p><p>reconhecimento de imagem e os aplicativos de rastreamento.</p><p>Pressionados pela urgência, pesquisadores mundo afora estão empenhados</p><p>em criar modelos para detectar a contaminação, prever a evolução de pacientes</p><p>contaminados, identi�car grupos de risco e descobrir vacinas e medicamentos.</p><p>Existem, atualmente, 115 estudos de vacina contra a covid-19 acontecendo no</p><p>mundo, sendo 78 registrados e cinco já em testes clínicos; nessa semana, a</p><p>BioNTech e a P�zer aprovaram junto à autoridade reguladora alemã – o</p><p>Instituto Paul-Ehrlich – o ensaio clínico de fase 1/2 do programa</p><p>compartilhado de vacinas BNT162 da BioNTech; essa fase inclui testes em</p><p>cerca de 200 indivíduos saudáveis, com idades entre 18 e 55 anos, com o</p><p>objetivo de determinar a dose ideal, além de avaliar a segurança e a</p><p>imunogenicidade da vacina. No entanto, segundo o biólogo brasileiro Atila</p><p>Iamarino, no melhor cenário as vacinas estarão disponíveis em meados de 2021</p><p>(tempo recorde comparado com o desenvolvimento da vacina do ebola, por</p><p>exemplo, que demorou cinco anos).</p><p>Parte dos estudos publicados, contudo, não observou as regras cientí�cas, ou</p><p>seja, não foi revisado por outros especialistas (“revisão por pares”). Em 31 de</p><p>março, um grupo de pesquisadores europeus publicou uma análise crítica na</p><p>conceituada revista cientí�ca British Medical Journal, intitulada “Prediction</p><p>Models for Diagnosis and Prognosis of Covid-19 Infection: Systematic Review</p><p>and Critical Appraisal” (“Modelos de previsão para diagnóstico e prognóstico</p><p>de infecção por Covid-19: revisão sistemática e avaliação crítica”),178</p><p>identi�cando inconsistências nos resultados de 31 modelos utilizados em 27</p><p>estudos: “Todos os modelos relataram desempenho preditivo bom a excelente,</p><p>mas todos foram avaliados como tendo alto risco de viés devido a uma</p><p>combinação de relatórios inadequados e conduta metodológica de�ciente para</p><p>seleção dos participantes, descrição do preditor e métodos estatísticos</p><p>utilizados”, ponderam os pesquisadores europeus.</p><p>O alto risco de viés identi�cado questiona a con�abilidade de suas previsões:</p><p>as amostras de pacientes utilizadas não representavam a população-alvo dos</p><p>modelos, ou eram relativamente pequenas (poucos dados em modelos de</p><p>machine learning podem funcionar em previsões mais simples, como prever a</p><p>batida de falta sem barreira num jogo de futebol, em que parte das variáveis é</p><p>conhecida); ademais, apenas um estudo utilizou dados coletados de pacientes</p><p>fora da China, o que impacta negativamente a acurácia do modelo em razão,</p><p>entre outros fatores, das diferenças entre os sistemas de saúde dos países, e o</p><p>biótipo e o comportamento da população.</p><p>Segundo a análise: “Como esperado, nesses primeiros estudos com modelos</p><p>de previsão relacionados à covid-19, os dados clínicos de pacientes</p><p>contaminados ainda são escassos e limitados a dados da China, Itália e registros</p><p>internacionais. Com poucas exceções, o tamanho da amostra disponível e o</p><p>número de eventos para os resultados de interesse foram limitados”. Os estudos</p><p>também não foram transparentes com relação às etapas dos testes. Essas e</p><p>outras falhas prenunciam</p><p>que as previsões são, provavelmente, menos assertivas</p><p>do que os relatos.</p><p>Os modelos estatísticos de previsão têm uma limitação intrínseca que é o</p><p>fato de prever o futuro com base em dados do passado (inferências de</p><p>tendências passadas). Essa limitação não ocorre quando se trata de modelos</p><p>preditivos com séries não temporais – computer vision; processamento de</p><p>linguagem natural (PNL), técnica de IA que ajuda as máquinas a analisarem,</p><p>interpretarem e gerarem textos; e outros sistemas fechados –, mas é uma</p><p>questão real em modelos de série temporais em tempo real (caso da epidemia</p><p>da covid-19). A falta de acuidade das previsões impacta negativamente a</p><p>abordagem do combate à epidemia e o tratamento dos infectados</p><p>(procedimentos, remédios e vacinas).</p><p>A covid-19 con�rmou que a inteligência arti�cial é a tecnologia mais</p><p>promissora do século XXI, mas, simultaneamente, alertou para suas limitações.</p><p>Como todos os modelos estatísticos de probabilidade, seus resultados indicam</p><p>apenas a chance de algo acontecer (e quando); no caso dos modelos de</p><p>aprendizado de máquina e redes neurais (deep learning), a variável “dado” –</p><p>quantidade, diversidade e qualidade – é um componente sensível do modelo, e</p><p>onde reside a principal causa das falhas detectadas nos modelos analisados. Isso</p><p>se dá, entre outros fatores, em função do crescimento exponencial da</p><p>contaminação; do período de contaminação relativamente curto; da trajetória</p><p>da contaminação variar por país e por região, de acordo com as medidas</p><p>adotadas, o clima, o comportamento da população; e dos métodos de</p><p>contabilização de pacientes positivos e mortes não serem universais.</p><p>O coronavírus está sendo chamado de “acelerador de futuros”. Visivelmente,</p><p>a covid-19 está acelerando o avanço da inteligência arti�cial, incluindo o</p><p>melhor entendimento de suas ainda muitas limitações.</p><p>O cenário futurista de E. M. Forster e a covid-19: a</p><p>vida cotidiana transcorre mediada pela Máquina</p><p>8.5.2020</p><p>O escritor britânico E. M. Forster publicou, em 1909, a novela A máquina</p><p>parou179, que retrata um cenário futurista distópico, em que a vida humana é</p><p>mediada por uma máquina. A Máquina evita qualquer deslocamento: caiu um</p><p>objeto no chão? O chão “se ergue” e traz o objeto até você. A professora Vashti</p><p>leciona por meio da Máquina, interage com o �lho Kuno pela Máquina,</p><p>alimenta-se pela Máquina, consome pela Máquina. Um dia, Kuno, em con�ito</p><p>com o status quo, pede à mãe: “Quero que você venha me ver”, ao que Vashti</p><p>responde: “Mas eu posso vê-lo! O que mais você quer?”. “Não quero vê-la</p><p>através da Máquina”, implora Kuno. Soa familiar?</p><p>Os personagens de Forster vivem numa pequena sala de formato hexagonal,</p><p>como a célula de uma abelha. “A iluminação não vem de alguma janela, nem</p><p>de uma lâmpada, no entanto um brilho suave espalha-se por todo o lugar. Não</p><p>existem aberturas para ventilação e no entanto o ar é fresco.” A covid-19, como</p><p>na novela de Forster, encurtou o espaço físico; passamos o dia em frente a uma</p><p>máquina, por ela nos informamos, socializamos, trabalhamos, consumimos e</p><p>nos divertimos. O coronavírus rede�niu, igualmente, o espaço urbano,</p><p>uni�cando três “cidades”: a “cidade-moradia”, a “cidade-trabalho” e a “cidade-</p><p>consumo”. Nossa �sicalidade mudou de natureza!</p><p>Conectados através de uma placa redonda iluminada, Vashti comenta com o</p><p>�lho Kuno: “Não me sinto bem”. “De imediato um enorme aparato desceu do</p><p>teto sobre ela, um termômetro foi automaticamente colocado sobre seu</p><p>coração. Ficou deitada, inerte. Compressas frias envolviam sua testa. Kuno</p><p>havia telegrafado para o médico dela.” Não tão de imediato nem tão e�cientes,</p><p>cresce o número de empresas que oferecem aos seus funcionários, durante a</p><p>quarentena, os serviços de telemedicina (consultas médicas online), como</p><p>benefício extra ao plano de saúde.</p><p>Na novela de Forster, a Máquina exerce controle absoluto sobre os</p><p>habitantes desse planeta imaginário, a vida é regida pelo Livro da Máquina,</p><p>publicação do Comitê Central, no qual estão contidas as instruções sobre todas</p><p>as contingências, incluindo botões a serem acionados em cada necessidade ou</p><p>desejo. No planeta Terra, a vida extraordinária da covid-19 acelerou a</p><p>implantação de mecanismos de controle cada vez mais so�sticados, que não</p><p>sabemos se serão temporários ou de�nitivos. Com funcionalidades distintas,</p><p>nem todos ameaçam a privacidade de seus usuários, mas todos têm em comum</p><p>a opacidade, pelo menos para o grande público. Vejamos três modelos de</p><p>monitoramento da epidemia em curso.</p><p>A Apple e o Google formaram uma parceria inédita com potencial de</p><p>monitorar cerca de um terço da população mundial. A tecnologia de</p><p>“rastreamento de contato” será incorporada aos sistemas operacionais iOS e</p><p>Android. Usando sinais bluetooth, o aplicativo indica quão perto você chegou</p><p>de pacientes diagnosticados com covid-19 (a e�ciência do sistema depende de</p><p>os usuários positivos inserirem os dados no aplicativo). A iniciativa é</p><p>controversa, porque envolve o compartilhamento de informações con�denciais</p><p>de saúde, além de dados de localização.</p><p>Visando atenuar os riscos e preservar a privacidade, seus criadores de�niram</p><p>algumas regras: as informações são armazenadas em um servidor de</p><p>computador remoto apenas por 14 dias; somente as autoridades de saúde</p><p>podem criar aplicativos a partir desse sistema; é proibido compartilhar</p><p>localização de usuário, bem como usar os dados para publicidade ou</p><p>policiamento; os gestores dos aplicativos são obrigados a obter o</p><p>consentimento do usuário antes de usar a API de noti�cação de exposição; e é</p><p>obrigatório um consentimento especí�co para compartilhar os resultados</p><p>positivos dos testes com as autoridades de saúde pública.</p><p>Mesmo com essas regras, não há unanimidade: no início de maio, o Reino</p><p>Unido decidiu evitar o sistema projetado pela Apple e pelo Google; a</p><p>preocupação dos especialistas britânicos é quanto a sua e�cácia, na medida em</p><p>que depende de ações dos usuários, inclusive o de manter seus celulares sempre</p><p>ligados. Além disso, como mostra estudo da Universidade de Oxford, sua</p><p>e�ciência depende de que ao menos 60% da população baixe o aplicativo.</p><p>Usando tecnologia de blockchain, o Banco Interamericano de</p><p>Desenvolvimento (BID), em parceira com três empresas privadas – Everis,</p><p>IOVlabs e World Data –, anunciou o lançamento do aplicativo DAVID19. A</p><p>ideia é oferecer aos cidadãos latino-americanos uma plataforma para o</p><p>compartilhamento de dados relacionados à covid-19, facilitando a gestão de</p><p>políticas públicas. A escolha do nome David para o aplicativo é uma alusão à</p><p>história bíblica bem conhecida do enfrentamento vitorioso entre o frágil Davi e</p><p>o invencível gigante Golias, nesse caso o coronavírus.</p><p>Segundo seus idealizadores, o objetivo é construir um registro comum</p><p>descentralizado do status de cada usuário, gerando mapas de situações de risco.</p><p>O projeto é inspirado em iniciativas bem-sucedidas em Cingapura e Coreia do</p><p>Sul. O BID assegura que não há chance de o anonimato ser violado.</p><p>Em outra direção, no Brasil temos o Sistema de Monitoramento Inteligente</p><p>(SIMI), desenvolvido pelas quatro principais operadoras de telefonia – Claro,</p><p>TIM, Oi e Vivo – para monitorar o isolamento durante a quarentena. Por</p><p>meio de “mapas de calor”, captados dos celulares, o sistema identi�ca</p><p>aglomerações, com o objetivo de apurar o índice de isolamento social por</p><p>região. As primeiras experiências foram no Rio de Janeiro, parceria com a</p><p>TIM, e em São Paulo, parceria do estado com as quatro operadoras. Só os</p><p>governos têm as “chaves de acesso à plataforma”. Os dados são anonimizados,</p><p>ou seja, o sistema não permite identi�car o cliente. É como uma catraca de</p><p>metrô, quando o usuário passa, apenas um número é registrado, nenhuma</p><p>informação pessoal (a apuração indica quantas pessoas passaram na catraca, e</p><p>não quem passou). O SIMI está programado para disparar sinais de alerta via</p><p>SMS aos usuários.</p><p>Os habitantes de Wuhan, na China, aparente origem da covid-19, aos</p><p>poucos retomam suas atividades, mas com novas rotinas. Na fábrica da</p><p>Lenovo, por exemplo, os</p><p>funcionários passam diariamente por quatro</p><p>checagens de temperatura, sendo liberados apenas aqueles com temperaturas</p><p>abaixo de 37,3 ºC; a arquitetura da fábrica foi alterada, reduzindo em 50% a</p><p>relação trabalhador/espaço; robôs desinfetam, constantemente, as instalações e</p><p>executam pequenas tarefas, reduzindo a circulação de pessoas.</p><p>Epidemiologia digital no combate à covid-19:</p><p>inovando no monitoramento de epidemias</p><p>22.5.2020</p><p>O �lósofo alemão Peter Sloterdijk, re�etindo sobre a pandemia da covid-19,</p><p>propôs o conceito de “coimunidade”, cujo signi�cado é o compromisso</p><p>individual de proteção mútua que, segundo ele, será a nova maneira de estar no</p><p>mundo: “O conceito de coimunidade implica aspectos de solidariedade</p><p>biológica e de coerência social e jurídica. Essa crise revela a necessidade de uma</p><p>prática mais profunda do mutualismo, ou seja, proteção mútua generalizada”.</p><p>Para o �lósofo, a crise atual evidencia a extrema interdependência, o que requer</p><p>uma declaração geral de dependência universal. “A imunidade será a grande</p><p>questão �losó�ca e política após a pandemia”, vaticina Sloterdijk.180</p><p>A covid-19 acelerou a necessidade de proteção mútua, consolidando uma</p><p>nova forma de monitorar epidemias em tempo real, a “epidemiologia digital”.</p><p>A Associação Internacional de Epidemiologia (IEA) de�ne “epidemiologia”</p><p>como o estudo dos fatores que determinam a frequência e a distribuição das</p><p>doenças nas coletividades humanas; a epidemiologia digital incorpora as</p><p>tecnologias digitais a esses estudos.</p><p>O uso de dados gerados fora do sistema público de saúde – celulares,</p><p>wearables, videovigilância, mídias sociais, pesquisas na internet – para</p><p>monitorar epidemias não é novo; os sistemas de rastreamento digital foram</p><p>usados na epidemia haitiana de cólera, em 2010, e no surto de ebola em 2014;</p><p>o coronavírus ampliou a dimensão e a diversidade desses sistemas.</p><p>Na Nova Zelândia, na Tailândia e em Taiwan, por exemplo, as autoridades</p><p>identi�cam os cidadãos que estão desrespeitando as normas vigentes pelos</p><p>dados de localização de celulares, penalizando os infratores com multas, em</p><p>alguns casos, de valores signi�cativos. Na China, na Polônia e na Rússia os</p><p>governos estão utilizando tecnologias de reconhecimento facial.</p><p>O governo de Cingapura, em março, solicitou aos cidadãos a instalação em</p><p>seus smartphones do aplicativo TraceTogether: com tecnologia de bluetooth, o</p><p>app troca números de identi�cação com os celulares de outros usuários a menos</p><p>de um metro e meio de distância, compartilhando com o governo dados de</p><p>usuários positivos para a covid-19. A e�ciência do aplicativo está no fato de o</p><p>vírus ser transmissível por meio de contato casual ocorrido dias antes dos</p><p>primeiros sintomas, e di�cilmente as pessoas se lembram de todos os contatos</p><p>que tiveram ao longo de vários dias.</p><p>O rastreamento de contato digital via smartphone oferece uma alternativa</p><p>e�caz e menos onerosa, mesmo que nem todo mundo tenha o dispositivo.</p><p>Pesquisas no Reino Unido sugerem que a covid-19 poderia ser eliminada se</p><p>80% dos usuários de smartphones (56% da população em geral, assumindo</p><p>70% de penetração de smartphones) usassem o aplicativo. Os resultados,</p><p>contudo, dependem do nível de adesão da população, que, por sua vez,</p><p>depende de campanhas de esclarecimento e da transparência sobre como os</p><p>dados serão coletados e utilizados, e quais os benefícios.</p><p>Em Cingapura, por exemplo, apenas cerca de 20% dos usuários de</p><p>smartphones instalaram o aplicativo TraceTogether, mesmo que o</p><p>compartilhamento dos dados com as autoridades de saúde seja restrito a</p><p>usuários infectados. Pesquisa realizada nos Estados Unidos indicou que cerca</p><p>de 40% de usuários de smartphones disseram que com certeza optariam por um</p><p>aplicativo de rastreamento de contatos, e pouco menos de 70% disseram que</p><p>provavelmente o fariam; no entanto, outra pesquisa encontrou taxas de adesão</p><p>muito mais baixas: 17% com certeza, 32% provavelmente.</p><p>As tecnologias são úteis para rastrear a disseminação do vírus e interromper</p><p>o agente infeccioso, mas, simultaneamente, suscitam questões éticas sensíveis.</p><p>Michelle Mello e Jason Wang, pesquisadores da Faculdade de Medicina da</p><p>Universidade de Stanford, em artigo publicado na revista Science, exploram</p><p>algumas preocupações, particularmente a privacidade e a autonomia.181 Os</p><p>autores alertam que alguns desses sistemas estão ameaçando a privacidade em</p><p>níveis maiores do que os usos correntes em �nalidades comerciais, e nem</p><p>sempre estão respeitando a autonomia de consentir ou não com o acesso às</p><p>informações pessoais. Os riscos são minimizados nos sistemas que usam dados</p><p>anonimizados (sem identi�cação individual), o que não é o caso de vários dos</p><p>sistemas associados ao combate à covid-19, como o aplicativo Alipay, na</p><p>China, que atribui categorias de risco aos indivíduos. Outra preocupação dos</p><p>pesquisadores é quanto ao viés contido nos dados, ao não representar o</p><p>universo da população em estudo (há grupos sub-representados nos dados de</p><p>laboratórios e centros de saúde e no próprio acesso à internet e celulares).</p><p>Mello e Wang apontam três fatores que potencialmente ampli�cam os</p><p>efeitos negativos. O primeiro deles seria o escopo: o uso de grandes conjuntos</p><p>de dados, representando um aumento signi�cativo do número de pessoas em</p><p>análise. O segundo, a velocidade: a urgência para desenvolver e implantar</p><p>aplicativos e algoritmos pode comprometer a validação dos testes e,</p><p>consequentemente, a con�ança. E por último, a fonte: os dados captados fora</p><p>do sistema de saúde, por exemplo, nas mídias sociais, requer validação pela alta</p><p>probabilidade de serem imprecisos ou incompletos.</p><p>A transparência dos sistemas de rastreamento pode minimizar os riscos à</p><p>privacidade, já que não é aconselhado apostar na e�cácia da supervisão dos</p><p>órgãos públicos. No caso dos Estados Unidos, Mello e Wang sugerem que as</p><p>agências federais de saúde encomendem estudos às Academias Nacionais de</p><p>Ciências, Engenharia e Medicina, recomendando regras para a vigilância digital</p><p>em pandemias que incluam mudanças nas leis estaduais e federais de</p><p>privacidade e poderes emergenciais.</p><p>A inteligência arti�cial não é inteligente, é pura</p><p>estatística</p><p>5.6.2020</p><p>O telefone toca e um médico atende: “Senhor, �camos sem ventiladores. O</p><p>que fazer quando chegarem mais pacientes?”. Essa é a cena inicial do �lme</p><p>Vírus, de 2019, dirigido por Aashiq Abu e produzido em Mollywood – cinema</p><p>sediado no estado indiano de Kerala e falado em malaiala –, que narra a luta</p><p>para conter o surto do vírus Nipah, em 2018, naquela região.</p><p>O patógeno, transmitido por morcego, matou 21 das 23 pessoas infectadas</p><p>naquele ano. A epidemia, contudo, foi vencida em um mês com as medidas</p><p>adotadas pelo governo local: rastreamento de contatos e quarentena. Segundo a</p><p>OMS, os sintomas iniciais foram febre, dor de cabeça, mialgia (dor muscular),</p><p>vômitos e dor de garganta; alguns tiveram pneumonia atípica e problemas</p><p>respiratórios graves. O período de incubação variou de quatro a 14 dias. Até</p><p>hoje, não existem medicamentos ou vacinas, embora a OMS tenha identi�cado</p><p>o vírus Nipah como doença prioritária. Qualquer semelhança não é mera</p><p>coincidência.</p><p>Desde o primeiro alerta da canadense BlueDot, em 31 de dezembro de</p><p>2019, ao detectar uma nova forma de doença respiratória na região do mercado</p><p>de Wuhan, na China, passando pelos instrumentos de rastreamento até o</p><p>desenvolvimento de vacinas, os modelos de inteligência arti�cial baseados em</p><p>dados têm contribuído no enfrentamento da epidemia. Os resultados,</p><p>contudo, são comprometidos pelas ainda limitações dos modelos. Vejamos</p><p>algumas abordagens a essas limitações.</p><p>Numa economia orientada por dados (data-driven economy), estes são um</p><p>ativo estratégico que se distingue dos demais pela não rivalidade (os dados</p><p>podem ser usados, simultaneamente, por vários usuários) e pela externalidade</p><p>(o valor dos dados para qualquer usuário depende das ações realizadas por</p><p>outros, ou seja, a aplicabilidade). A erosão da privacidade é uma</p><p>externalidade</p><p>negativa. Diane Coyle, professora da Universidade de Cambridge, contudo,</p><p>alerta para a capacidade potencial dos dados de produzir externalidades</p><p>positivas se os bancos de dados não fossem isolados em diferentes organizações</p><p>públicas e privadas. A falta de integração dos dados de pacientes infectados,</p><p>por exemplo, tem sido uma barreira no enfrentamento da covid-19.</p><p>No entanto, mesmo se for �rmado um acordo de compartilhamento de</p><p>dados, ao menos para �ns extraordinários, como a epidemia da covid-19, os</p><p>especialistas ainda terão de lidar com o problema do viés contido nos dados,</p><p>responsável em parte pelos resultados discriminatórios dos modelos baseados</p><p>na técnica de redes neurais profundas (deep learning). Diversos centros de</p><p>pesquisa de universidades e empresas de tecnologia estão investindo pesado em</p><p>soluções para eliminar ou minimizar esse viés; a expectativa é alvissareira para</p><p>os próximos anos.</p><p>O problema do viés é abordado em inúmeros estudos e publicações. A título</p><p>de ilustração, seguem três exemplos: estudo da ProPublica, realizado no</p><p>condado de Broward, Flórida, mostrou que o sistema COMPAS – sistema de</p><p>automatização de decisões sobre liberdade condicional adotado em vários</p><p>estados norte-americanos – atribuiu aos réus afro-americanos a classi�cação de</p><p>“alto risco” quase o dobro de vezes comparativamente aos réus brancos.182</p><p>Estudo das pesquisadoras Joy Buolamwini e Timnit Gebru apurou resultados</p><p>discriminatórios com viés de gênero e raça em algoritmos de análise facial.183</p><p>Em outro estudo, da Universidade de Washington, na busca por imagens de</p><p>CEOs, apenas 11% dos principais resultados mostravam mulheres, embora elas</p><p>representassem 27% dos CEOs dos Estados Unidos na época. Provavelmente,</p><p>na base de dados de treinamento dos algoritmos de IA, os grupos estavam sub-</p><p>representados. Jake Silberg e James Manyika, do McKinsey Global Institute,</p><p>argumentam que, dependendo da forma como os sistemas são desenvolvidos,</p><p>implementados, utilizados e interpretados, podem reduzir, perpetuar ou</p><p>multiplicar o preconceito humano contido nos dados.184</p><p>Segundo os autores, técnicas inovadoras de treinamento, como o transfer</p><p>learning, têm obtido resultados positivos na redução do viés particularmente</p><p>em sistemas de reconhecimento facial. No “aprendizado de transferência”,</p><p>algoritmos que foram treinados para reconhecer imagens de carros, por</p><p>exemplo, com ajustes podem ser utilizados no reconhecimento de caminhões,</p><p>encurtando o tempo de treinamento da segunda tarefa (precondição:</p><p>semelhança entre os conjuntos de dados). Trata-se de armazenar o</p><p>conhecimento adquirido na resolução de uma tarefa e aplicá-lo a uma tarefa</p><p>diferente, porém relacionada.</p><p>Outro problema dos sistemas de redes neurais profundas (deep learning) é a</p><p>não explicabilidade, limitação sensível no setor de saúde. Seus pro�ssionais</p><p>resistem a adotar resultados de sistemas inteligentes sem saber os meandros do</p><p>processo, ou seja, como os sistemas chegaram àquele resultado especí�co. No</p><p>estágio de desenvolvimento atual da IA, as previsões não devem ser aceitas</p><p>como de�nitivas (além disso, toda previsão contém margem de erro).</p><p>A inteligência arti�cial que está sendo usada em larga escala são modelos</p><p>estatísticos de probabilidade. Esses modelos não são inteligentes, não têm</p><p>capacidade de compreender o signi�cado, não entendem o contexto social, o</p><p>que se constitui em sua principal fragilidade (ou vulnerabilidade). O papel</p><p>desses modelos é subsidiar o processo de tomada de decisão dos pro�ssionais</p><p>humanos.</p><p>F</p><p>uturo sustentável e intensivo em tecnologia é a meta. Essa é a aposta (e o</p><p>desejo), pelo menos, de uma parte da sociedade brasileira: o Google Trends</p><p>indica um aumento signi�cativo, a partir de 2019, na busca pelo termo</p><p>“inteligência arti�cial”, e o estudo publicado pelo Google em 2021 sinaliza um</p><p>aumento de 247% nas buscas por assuntos relacionados à crise climática, e</p><p>88% dos usuários consultados acreditam que as empresas/marcas devem agir</p><p>para amenizar os efeitos da crise ambiental.185</p><p>Existe uma sobreposição dos impactos éticos e sociais das duas agendas, por</p><p>exemplo, no tema da automação e os subsequentes efeitos das tecnologias</p><p>digitais sobre o trabalho (substituição do trabalhador, demanda por novas</p><p>habilidades, redução da renda e aumento da desigualdade), e as inéditas</p><p>interfaces homem-máquina; a Economia Verde e a Economia de Dados são</p><p>intensivas em tecnologia (e não em mão de obra).</p><p>A IA é estratégica no enfrentamento das mudanças climáticas, seus modelos</p><p>são usados para monitorar o aquecimento global. Entre os especialistas do</p><p>clima predomina, contudo, a ideia de IA como “ferramenta”. É urgente superar</p><p>essa visão e convergir as duas agendas.</p><p>O movimento por uma “IA sustentável”, além dos aspectos éticos, considera</p><p>os impactos negativos dos robustos sistemas de IA sobre o meio ambiente, que</p><p>é o tema central dos dois primeiros artigos deste bloco (a natureza não arti�cial</p><p>da IA). O terceiro e último artigo debate o argumento inicial: a convergência</p><p>das agendas climáticas e de IA como estratégica para pensar o futuro.</p><p>Consumo de energia e emissão de CO2 dos algoritmos</p><p>de inteligência arti�cial: como evitar uma catástrofe</p><p>climática</p><p>18.12.2020</p><p>Estudo da Universidade de Stanford de 2019 descobriu que o treinamento</p><p>de um sistema padrão de processamento de linguagem de inteligência arti�cial</p><p>gera, aproximadamente, a mesma quantidade de emissão de carbono produzida</p><p>por uma pessoa em uma viagem de ida e volta entre Nova York e São</p><p>Francisco. O processo completo de construir e treinar esse sistema pode gerar,</p><p>dependendo da fonte de energia, o dobro de emissão de CO2 de um americano</p><p>médio ao longo de toda a vida (com a ressalva de que não é simples medir o</p><p>consumo de energia individual).</p><p>No mesmo ano, a pesquisadora de inteligência arti�cial da Universidade</p><p>Carnegie Mellon, Emma Strubell, alertou que desde 2017 o consumo de</p><p>energia e a pegada de carbono estão explodindo à medida que os modelos de</p><p>IA são alimentados com mais e mais dados. O estudo de Strubell descobriu que</p><p>um modelo especí�co de rede neural profunda (deep learning) teria produzido</p><p>o equivalente a 626.155 libras (284 toneladas métricas) de dióxido de carbono,</p><p>o que corresponde à produção vitalícia de cinco carros norte-americanos</p><p>médios.</p><p>Existe uma relação direta entre o consumo de energia e a emissão de</p><p>carbono (CO2). De acordo com a Agência de Proteção Ambiental dos Estados</p><p>Unidos (U.S. Environmental Protection Agency – EPA), um quilowatt-hora de</p><p>consumo de energia gera 0,954 libras de emissões de CO2 em média no país,</p><p>considerando, proporcionalmente, as distintas fontes de eletricidade em toda a</p><p>rede de energia americana – energias renováveis, nuclear, gás natural, carvão.</p><p>Segundo Strubell, a pegada de carbono seria menor se os modelos de</p><p>inteligência arti�cial fossem todos treinados com energia renovável, e compara,</p><p>por exemplo, o Google Cloud Platform e a AWS/Amazon, o primeiro com</p><p>matriz energética renovável.</p><p>Rob Toews, em artigo publicado na Forbes, estima que, entre 2012 e 2018,</p><p>a quantidade de energia consumida para rodar os modelos de inteligência</p><p>arti�cial tenha aumentado 300 mil vezes, fruto principalmente do aumento da</p><p>quantidade de dados utilizada no treinamento: em 2018, o modelo BERT</p><p>(algoritmo do buscador do Google) alcançou o melhor desempenho da classe</p><p>de processamento de linguagem natural (PNL) – técnica de IA que ajuda as</p><p>máquinas a analisar, interpretar e gerar textos –, ao ser treinado em um</p><p>conjunto de dados de 3 bilhões de palavras; o GPT-2 (Generative Pre-Training</p><p>for Language Understanding), lançado em junho 2018 pela OpenAI, foi</p><p>treinado em um conjunto de dados de 40 bilhões de palavras, e o GPT-3,</p><p>sucedâneo do GPT-2, lançado em junho 2020, foi treinado com cerca de 500</p><p>bilhões de palavras.186</p><p>A inteligência arti�cial disseminada atualmente na sociedade e na economia,</p><p>baseada na técnica de redes neurais profundas (deep learning), é um modelo</p><p>empírico de experimentação e</p><p>ajustes, que demanda um exercício de “tentativa</p><p>e erro”, ou seja, rodar o sistema inúmeras vezes com distintas arquiteturas,</p><p>hiperparâmetros e algoritmos. No modelo GPT-3 da OpenAI, por exemplo, ao</p><p>longo de seis meses foram testadas 4.789 versões diferentes, demandando um</p><p>total de 9.998 dias de tempo de GPU (graphics processing unit), e gerando mais</p><p>de 78 mil libras de emissões de CO2, uma quantidade maior do que se estima</p><p>que um adulto norte-americano médio produz em dois anos. Como enfatiza</p><p>Rob Toews, no artigo citado, o alto consumo de energia extrapola o período de</p><p>treinamento: a multinacional de tecnologia Nvidia estima que 80% a 90% do</p><p>custo de uma rede neural ocorre na etapa de implementação.</p><p>Tentar controlar essa externalidade negativa, ou ao menos minimizá-la, é o</p><p>propósito do movimento denominado de Green AI. Com foco inicial em</p><p>conscientizar os desenvolvedores de inteligência arti�cial e as empresas que</p><p>utilizam essas tecnologias em larga escala, os pesquisadores sugerem medidas</p><p>relativamente simples, como privilegiar algoritmos que consomem menos</p><p>energia e transferir o treinamento para locais remotos ou com fonte de energia</p><p>renovável: um processamento na Estônia, por exemplo, que depende</p><p>predominantemente do óleo de xisto, produz 30 vezes o volume de carbono</p><p>que o mesmo processamento produziria em Quebec, que depende</p><p>principalmente da hidroeletricidade187.</p><p>Uma equipe de pesquisadores da Universidade de Stanford, do Facebook AI</p><p>Research e da Universidade McGill criou um dispositivo fácil de usar para</p><p>medir a quantidade de energia que um projeto de aprendizado de máquina usa</p><p>e quanto isso signi�ca em emissões de carbono. “Há um grande esforço de</p><p>expandir o aprendizado de máquina para resolver problemas cada vez maiores,</p><p>usando mais poder de computação e mais dados. Quando isso acontece, temos</p><p>de estar atentos para saber se os benefícios desses modelos de computação</p><p>pesada compensam o custo do impacto no meio ambiente”, pondera Dan</p><p>Jurafsky, professor titular de Ciência da Computação em Stanford e um dos</p><p>membros da equipe.188</p><p>As gigantes de tecnologia estão, em parte, movimentando-se. O Google</p><p>exige “emissões líquidas de carbono zero” para seus data centers, compensadas</p><p>por extensas compras de energia renovável, e se autodenomina “nuvem mais</p><p>ecológica do setor”, a�rmando que 100% do consumo de energia do Google</p><p>Cloud é proveniente de energia renovável. A Microsoft anunciou no início do</p><p>ano um plano para se tornar “carbono negativo” até 2030. Por outro lado, os</p><p>principais provedores de “nuvem” – Microsoft, Amazon, Google – não</p><p>divulgam as demandas de energia de seus sistemas de aprendizado de máquina.</p><p>A estratégia dessas empresas, aparentemente, está mais calcada na compra de</p><p>crédito de carbono do que em mudanças efetivas em suas operações.</p><p>Dado o impacto no meio ambiente dos modelos de inteligência arti�cial, é</p><p>crítico, no mínimo, aumentar a transparência, estabelecendo indicadores</p><p>universais de mensuração, ou seja, cada novo modelo de IA desenvolvido e/ou</p><p>implementado deve incluir a informação de quanta energia foi gasta no</p><p>processo.</p><p>Em paralelo, a comunidade de IA – desenvolvedores, pesquisadores,</p><p>instituições e empresas – precisa investigar novos paradigmas que dispensem o</p><p>uso de conjunto de dados cada vez maiores, e com crescimento exponencial.</p><p>Outra ponderação de Emma Strubell, diz respeito à desigualdade entre a</p><p>academia e as grandes plataformas de tecnologia: “Essa tendência de treinar</p><p>modelos enormes em toneladas de dados não é viável para acadêmicos,</p><p>portanto, há uma questão de acesso equitativo entre pesquisadores na academia</p><p>e pesquisadores na indústria”.189</p><p>São imensos os benefícios possibilitados pelas tecnologias de inteligência</p><p>arti�cial, inclusive no enfrentamento das mudanças climáticas. Estudo</p><p>elaborado por 23 pesquisadores, incluindo um dos “pais” da técnica de deep</p><p>learning, Yoshua Bengio, publicado em novembro 2019,190 apresenta 13 áreas</p><p>em que a IA pode colaborar, tais como produção energética, remoção de CO2,</p><p>educação, geoengenharia solar e �nanças, construções energeticamente</p><p>e�cientes, desenvolvimento de novos materiais com uso reduzido de carbono,</p><p>além de maximizar o monitoramento do desmatamento e do transporte</p><p>ecológico. O que ainda é relativamente pouco debatido é o consumo de energia</p><p>e a consequente emissão de carbono desses mesmos sistemas inteligentes. O</p><p>desa�o é achar o ponto de equilíbrio.</p><p>Inteligência arti�cial não é inteligente nem arti�cial</p><p>14.5.2021</p><p>Não existe uma de�nição universal de “inteligência”. Genericamente, o</p><p>termo designa a capacidade de um agente atingir objetivos determinados em</p><p>uma ampla gama de domínios e, em geral, é associado à espécie humana.</p><p>De�nições especí�cas contemplam atributos intangíveis, como a capacidade de</p><p>fazer analogia e entender o signi�cado, além de consciência, intencionalidade,</p><p>livre-arbítrio, ética, moral. Por esses parâmetros, no estágio de desenvolvimento</p><p>atual, a inteligência arti�cial não é inteligente.</p><p>A IA também não é “arti�cial”, seu desenvolvimento e uso extrapolam a</p><p>esfera abstrata dos algoritmos, dependem de infraestruturas físicas que, por sua</p><p>vez, dependem de recursos naturais, particularmente o lítio. De cor prateada,</p><p>maleável, denominado de “ouro branco”, o mineral é estratégico para o setor de</p><p>tecnologia: os equipamentos eletrônicos portáteis (smartphones, notebooks,</p><p>câmeras digitais, assistentes virtuais), interface entre os usuários e os sistemas</p><p>de inteligência arti�cial, funcionam com baterias de íons de lítio (LIB).</p><p>Gradativamente, elas estão sendo implantadas nos data centers, em função da</p><p>maior densidade de energia e vida útil signi�cativamente mais longa, além de</p><p>“pegada ecológica” (“ecological footprint”).</p><p>O lítio foi descoberto em Silver Peak, Nevada, Estados Unidos, durante a</p><p>Segunda Guerra Mundial. Por mais de 50 anos, o mineral foi extraído em</p><p>quantidades modestas, até ser valorizado no século XXI pelo setor de</p><p>tecnologia. Rockwood Holdings é a única mina de lítio em operação nos</p><p>Estados Unidos. Fundada em 2000, em Princeton, Nova Jersey, foi adquirida</p><p>em 2014 pela fabricante de produtos químicos Albemarle Corporation por 6,2</p><p>bilhões de dólares. A maior reserva de lítio do mundo, contudo, está no deserto</p><p>do Salar de Uyuni, no sul da Bolívia, que, junto com o Salar de Atacama,</p><p>Chile, e o Salar del Hombre Muerto, Argentina, formam o “triângulo do lítio”,</p><p>representando cerca de 68% das reservas mundiais. As demais regiões com</p><p>minas de lítio são Congo, Mongólia, Indonésia e desertos da Austrália</p><p>Ocidental. As condições de trabalho nessas minas são precárias; a Intel e a</p><p>Apple, recentemente, foram criticadas por auditar apenas as fundições (não as</p><p>minas) na busca do Certi�cation of Con�ict-free Status (Certi�cação de Status</p><p>Livre de Con�ito).</p><p>As baterias de lítio são, igualmente, utilizadas nos carros elétricos, que</p><p>incluem os carros autônomos. A maior fábrica de baterias de lítio do mundo é</p><p>a Tesla Gigafactory, projeto da Tesla com a Panasonic, em Nevada, EUA; na</p><p>produção de veículos elétricos, a Tesla consome cerca de 50% do total de</p><p>baterias de lítio do mundo (anualmente, cerca de 28 mil toneladas de</p><p>hidróxido de lítio). A mineração, fundição, exportação, montagem e transporte</p><p>da cadeia de abastecimento da bateria têm fortes impactos negativos no meio</p><p>ambiente e nas comunidades locais.</p><p>Kate Crawford – cofundadora do instituto de pesquisa AI Now, da</p><p>Universidade de Nova York, professora da USC Annenberg, de Los Angeles, e</p><p>professora-visitante de IA e Justiça na École Normale Supérieure, em Paris,</p><p>além de pesquisadora sênior da Microsoft Research – lançou o livro Atlas of</p><p>AI.191 Com base em minuciosa e extensa pesquisa de campo, Crawford alerta</p><p>para o fato de que as externalidades negativas da inteligência arti�cial</p><p>transcendem as questões éticas, na medida em que produzem mudanças</p><p>geomór�cas profundas e duradouras ao planeta, destacando o protagonismo do</p><p>lítio, cada vez mais escasso, e da energia, ainda fortemente concentrada em</p><p>energias fósseis.</p><p>Crawford denuncia</p><p>o “mito da tecnologia limpa” das grandes empresas de</p><p>tecnologia, particularmente das plataformas de nuvem – Amazon Web</p><p>Services, Microsoft Azure, Google Cloud e IBM Cloud: divulgam políticas</p><p>ambientais, iniciativas de sustentabilidade e contribuições da IA no</p><p>enfrentamento das questões climáticas e escondem como segredos corporativos</p><p>os danos, entre outros, da extração de lítio e do consumo de quantidades</p><p>gigantescas de energia. Google e Apple se declararam “carbono free”, ou seja,</p><p>compensam suas emissões de carbono comprando crédito, o que indica a</p><p>incapacidade de reduzir suas próprias emissões.</p><p>O consumo de energia, e consequente emissão de CO2, tem crescido</p><p>signi�cativamente com o aumento exponencial da velocidade e da precisão dos</p><p>modelos de inteligência arti�cial. Emma Strubell, pesquisadora de IA da</p><p>Universidade de Massachusetts Amherst, estimou que, para rodar apenas um</p><p>modelo de natural language processing (NLP), são produzidas mais de 660 mil</p><p>libras de emissões de dióxido de carbono, o equivalente a cinco carros movidos</p><p>a gasolina durante sua vida útil total (incluindo o período de fabricação), ou</p><p>125 voos de ida e volta de Nova York a Pequim.192</p><p>A OpenAI, instituição de pesquisa sem �ns lucrativos dedicada a promover</p><p>a inteligência arti�cial amigável, fundada por Elon Musk e outros investidores</p><p>do Vale do Silício, estima que desde 2012 a quantidade de computação usada</p><p>para treinar um único modelo de IA tem aumentado por um fator de 10 a cada</p><p>ano.193 Os data centers são grandes poluidores. Na China, por exemplo, 73% da</p><p>energia utilizada nos centros de processamento de dados vem do carvão; em</p><p>2018, eles emitiram cerca de 99 milhões de toneladas de CO2, e a previsão é</p><p>aumentar em dois terços até 2023.194</p><p>A inteligência arti�cial hoje não é inteligente, não é arti�cial, nem objetiva e</p><p>neutra. Como pondera Kate Crawford, os sistemas de IA “estão embutidos nos</p><p>mundos social, político, cultural e econômico, moldados por humanos,</p><p>instituições e imperativos que determinam o que eles fazem e como o fazem”.</p><p>O futuro é verde digital</p><p>10.12.2021</p><p>A exposição Futures, inaugurada em novembro no Arts and Industries</p><p>Building, em Washington, e projetada pelo premiado escritório de arquitetura</p><p>Rockwell Group, especula, com arte e tecnologia, o próximo capítulo da</p><p>humanidade: “Sinta o cheiro de uma molécula. Limpe suas roupas em um</p><p>pântano. Medite com um robô de IA. Viaje no espaço e no tempo”, anuncia a</p><p>curadoria. Um dos cenários é o Futures that Work, que apresenta, entre outras</p><p>invenções, o “Virgin Hyperloop”, tubo de vácuo para transporte de passageiros</p><p>que encurta distâncias de horas para minutos; o “Ecos BioReactor”, reator que</p><p>captura carbono do ar e converte em biomassa; o “Mineral Rover”, sistema que</p><p>provê a quantidade de minerais e água necessários para cada planta</p><p>(personalização); e o “Waha Water Harvester”, equipamento, movido a energia</p><p>solar, que puxa água diretamente do ar. São “futuros” sustentáveis e intensivos</p><p>em tecnologia.</p><p>A simples substituição de viagens de negócio por videoconferências tem</p><p>efeito bené�co sobre a pegada de carbono, ilustrando a interdependência entre</p><p>sustentabilidade e tecnologia. Esse exemplo consta do documento “Shaping</p><p>Europe’s Digital Future”, lançado pela Comissão Europeia em fevereiro de</p><p>2020.195 O documento enfatiza a relevância das tecnologias digitais para o</p><p>Acordo Verde Europeu196 e para os Objetivos de Desenvolvimento</p><p>Sustentável,197 ou seja, para a economia circular, para a descarbonização e</p><p>redução da pegada ambiental e social dos produtos, particularmente em</p><p>setores-chave como agricultura de precisão, infraestruturas inteligentes de</p><p>transporte e energia. Para Ursula von der Leyen, presidente da comissão, trata-</p><p>se de um duplo desa�o: transição verde e digital.</p><p>Alinhado com essa tendência, o documento “Clima e desenvolvimento:</p><p>visões para o Brasil 2030”198 lançado no espaço Brazil Climate Action Hub, na</p><p>COP 26, realizada entre 31 de outubro e 12 de novembro deste ano, em</p><p>Glasgow, na Escócia – tem como principal objetivo propor caminhos de</p><p>transição do modelo atual de desenvolvimento do Brasil para um modelo de</p><p>zero emissões líquidas de carbono. O foco do documento, do ponto de vista de</p><p>ações a serem implementadas, contempla monitorar o desmatamento,</p><p>promover o crescimento econômico, incentivar a agricultura sustentável e</p><p>otimizar e diversi�car os modos de transporte de carga e transporte público,</p><p>metas viabilizadas, em parte, por modelos de inteligência arti�cial. Segundo</p><p>Natalie Unterstell, presidente do Instituto Talanoa, responsável pelo</p><p>documento ao lado do Centro Clima da UFRJ, a abrangência desses objetivos</p><p>signi�ca, na prática, refundar as bases da economia: “Não estamos propondo</p><p>uma transição só de fontes energéticas. Mas também uma transição de</p><p>empregos, uma transição de modelos de negócio, uma transição de modelo de</p><p>país. É disso que estamos falando”.199</p><p>O artigo “�e Role of Arti�cial Intelligence in Achieving the Sustainable</p><p>Development Goals”, publicado em 2020 na revista Nature Communications,</p><p>aborda as contribuições da inteligência arti�cial para o cumprimento dos 17</p><p>objetivos e 169 metas de desenvolvimento sustentável da Agenda 2030 da</p><p>ONU.200 Com 10 autores, entre eles Virginia Dignum, da Universidade de</p><p>Umeå, e Max Tegmark, do MIT, o artigo analisa, com base em pesquisas</p><p>empíricas, os impactos positivos e negativos da IA em três pilares – sociedade,</p><p>economia e ambiente. No pilar “ambiente”, o estudo identi�cou 25 alvos, 93%</p><p>do total, para os quais a inteligência arti�cial poderia atuar como um</p><p>facilitador, com destaque para a compreensão e a modelagem dos possíveis</p><p>impactos das mudanças climáticas.</p><p>As tecnologias de inteligência arti�cial permitem extrair informações úteis</p><p>de grandes conjuntos de dados gerados por sensores alocados estrategicamente</p><p>e, com base neles, entre outras ações, alimentar os sistemas de monitoramento</p><p>de desmatamento e degelo e identi�car as correlações entre regiões</p><p>aparentemente não correlacionadas; por exemplo, os efeitos dos eventos no</p><p>Saara sobre a Amazônia (muito bem retratados no documentário Mundo</p><p>conectado, da Net�ix). O uso mais e�ciente dos recursos naturais passa,</p><p>igualmente, pelas tecnologias de inteligência arti�cial, assim como as chamadas</p><p>smart sustainable cities (monitoramento da mobilidade urbana, gerenciamento</p><p>de tráfego, gestão e�caz das infraestruturas e serviços como energia e</p><p>saneamento básico).</p><p>A plena concretização da agenda climática depende do uso intensivo de</p><p>tecnologias de inteligência arti�cial, com impactos éticos e sociais. No âmbito</p><p>social, destacam-se os efeitos diretos e indiretos sobre o trabalho: deslocamento</p><p>do trabalhador com a substituição por automação inteligente em um conjunto</p><p>crescente de funções; efeito negativo sobre a renda, ao aumentar a competição</p><p>pelas funções remanescentes preservadas, por enquanto, aos humanos, e</p><p>mudança na interface homem-máquina em larga escala, demandando</p><p>quali�cação e requali�cação, o que remete à formação e à educação (e não ao</p><p>simples treinamento). Na próxima década, uma parcela não desprezível das</p><p>novas funções será em ocupações totalmente novas ou ocupações existentes</p><p>com conteúdos e requisitos de competências transformados, entre outras, pela</p><p>Economia Verde e pela Economia de Dados. Igualmente em comum, emergem</p><p>várias questões éticas, como privacidade e transparência no uso de dados</p><p>pessoais e nas decisões automatizadas.</p><p>A sociedade encontra-se em um ponto crítico das duas agendas – mudanças</p><p>climáticas e tecnologias de inteligência arti�cial –, ambas estratégicas para</p><p>garantir um futuro sustentável para a humanidade. Atualmente, a IA é pouco</p><p>considerada nas re�exões éticas e sociais dos pensadores das questões climáticas;</p><p>prevalece uma abordagem instrumental da IA. É urgente mudar essa visão e</p><p>estabelecer uma sólida aliança entre as duas agendas.</p><p>N</p><p>a introdução ao livro AI 2041: Ten Visions for Our Future (2021), em</p><p>coautoria com Kai-Fu Lee, Chen Qiufan – premiado autor, produtor e</p><p>curador, e presidente da World</p><p>Chinese Science Fiction Association –</p><p>descreve o impacto sobre ele causada pela exposição AI: More �an Human,</p><p>coproduzida por Barbican International Enterprises em colaboração com</p><p>Groninger Forum: “Como uma refrescante chuva de verão, a exposição clareou</p><p>meus sentidos – e mudou a maioria dos meus preconceitos preexistentes e</p><p>equívocos em relação à inteligência arti�cial”.</p><p>Amplamente reverenciada pelo público e pela mídia, a exposição mostrou,</p><p>com diversidade e complexidade, a linha do tempo representativa da evolução</p><p>da IA, começando pelo personagem místico do folclore judaico Golem, criado</p><p>em 1580 pelo grão-rabino de Praga Judah Loew, e o herói do anime japonês</p><p>Doraemon (O Gato do Futuro), criado em 1969 e em 2002 aclamado como</p><p>herói asiático pela revista Time Asia. São apresentados projetos proeminentes</p><p>de instituições como DeepMind, Jigsaw, MIT Computer Science and Arti�cial</p><p>Intelligence Laboratory, Sony Computer Science Laboratories, e artistas em</p><p>colaboração com cientistas-pesquisadores, como Joy Buolamwini, Mario</p><p>Klingemann, Kode 9, Lawrence Lek, Massive Attack, Lauren McCarthy, Yoichi</p><p>Ochiai, Neri Oxman, Anna Ridler, Chris Salter, Sam Twidale e Marija</p><p>Avramovic e Universal Everything. Participa, igualmente, Hiroshi Ishiguro,</p><p>criador de uma réplica robótica de si mesmo.</p><p>São múltiplos os movimentos artísticos baseados em IA – ultra fractal, arte</p><p>genética, proceduralismo e arte transumanista –, e os sites dedicados a esses</p><p>artistas – �e Algorithms, Algorithmic Worlds, �e Art. A aplicação das</p><p>tecnologias de IA na arte extrapola a criação, sendo usada, por exemplo, no</p><p>reconhecimento de autenticidade de obras de arte, no resgate de obras</p><p>dani�cadas, na disseminação de conteúdo, na preservação de patrimônio e na</p><p>experiência do visitante em museus e exposições. O uso de IA nesses domínios</p><p>requer estreita colaboração entre cientistas/desenvolvedores e artistas,</p><p>aproximando universos distintos (lógica, linguagem, metodologia).</p><p>Este bloco tem apenas dois artigos: o primeiro, dos primórdios da coluna,</p><p>pondera sobre a viabilidade de criar arte com IA; o segundo, mais recente, traz</p><p>uma visão geral das possibilidades da colaboração IA e arte.</p><p>Dá para fazer arte com inteligência arti�cial?</p><p>23.8.2019</p><p>A casa de leilões Christie’s, fundada em 1766 por James Christie, é uma</p><p>conceituada instituição britânica ligada ao comércio de arte. Em outubro de</p><p>2018, sua �lial em Nova York leiloou uma pintura criada inteiramente por</p><p>algoritmos de inteligência arti�cial, conquistando visibilidade na mídia mundo</p><p>afora: o retrato de Edmond de Belamy, interpretando um cavalheiro</p><p>aristocrático. O valor inicial foi �xado entre 7 mil e 10 mil dólares, tendo sido</p><p>vendida por 433 mil dólares.</p><p>A obra pertence a uma série de imagens chamada La famille de Belamy,</p><p>criada pelo Obvious, coletivo de artistas e pesquisadores de IA baseado em</p><p>Paris. Seu propósito é explorar a interface entre a arte e a IA utilizando a</p><p>arquitetura de redes neurais GAN (generative adversarial network, rede</p><p>adversária generativa).</p><p>Richard Lloyd, da Christie’s, justi�cou a escolha da obra pela limitada</p><p>intervenção humana em seu processo criativo: “O Obvious tentou limitar a</p><p>intervenção humana tanto quanto possível, de modo que o trabalho resultante</p><p>re�etisse a forma ‘purista’ da criatividade expressa pela máquina”.201</p><p>A GAN, introduzida em 2014 por pesquisadores da Universidade de</p><p>Montreal, é uma arquitetura de redes neurais (deep learning) composta por</p><p>duas redes – uma contra a outra, daí o “adversária” do nome –, treinadas para</p><p>criar objetos semelhantes em qualquer domínio (música, fala, imagens, textos).</p><p>Pode ser utilizada, por exemplo, no “envelhecimento” computacional para</p><p>ajudar a identi�car e/ou localizar pessoas desaparecidas, e na elaboração de</p><p>“retrato falado” na busca de suspeitos.</p><p>A GAN é capaz de gerar novas imagens, com aparência de autênticas, a</p><p>partir do conjunto de imagens usadas no treinamento do sistema; no caso da</p><p>obra leiloada, o sistema foi alimentado com um conjunto de dados de 15 mil</p><p>retratos pintados entre os séculos XIV e XX. O surpreendente, contudo, é que</p><p>o retrato de Edmond de Belamy incorporou elementos contemporâneos,</p><p>diferindo da concepção de retrato da época; esse efeito, segundo seus</p><p>idealizadores, decorre de distorções do modelo de IA.</p><p>Aparentemente, as primeiras experimentações de arte com IA ocorreram em</p><p>2015 com o software DeepDream do Google, os resultados, contudo, foram</p><p>obras estética e conceitualmente limitadas, não atraindo a atenção da crítica</p><p>nem do público. O leilão da Christie’s estimulou novas experimentações,</p><p>inseridas num movimento artístico batizado pelo Obvious de “GAN-ism”, e</p><p>muita polêmica. Vários artistas, utilizadores da inteligência arti�cial, contestam</p><p>a originalidade não apenas dessa obra, mas de todo o trabalho do Obvious,</p><p>referindo-se ao coletivo mais como pro�ssionais de marketing do que</p><p>propriamente artistas.</p><p>O jornalista norte-americano Mark Anderson, num artigo para a revista</p><p>Wired de dezembro de 2001, atribui ao singularista Ray Kurzweil o</p><p>pioneirismo na associação computação e arte ao patrocinar os estudos de</p><p>Harold Cohen. Como pesquisador visitante no Laboratório de Inteligência</p><p>Arti�cial da Universidade de Stanford, em 1973, Cohen desenvolveu um</p><p>programa de criação de arte chamado AARON, capaz de desenhar e pintar</p><p>naturezas-mortas estilizadas e retratos com base em programa de computador</p><p>(algumas de suas obras estão em coleções de museus importantes). Pamela</p><p>McCorduck, no livro Aaron’s Code, de 1991, considerou Cohen como o</p><p>pioneiro de uma nova geração de criadores de estética, ou “meta-artistas”.</p><p>�e Painting Fool, de Simon Colton, da Universidade de Londres, é outro</p><p>sistema de IA relacionado à arte que vale a pena conhecer e acompanhar; assim</p><p>como a plataforma AIArtists.org, espécie de curadoria de obras de pioneiros na</p><p>arte de IA e fórum de re�exão sobre como a IA pode expandir a criatividade</p><p>humana e contribuir para o entendimento da imaginação coletiva, e como</p><p>podemos estabelecer parcerias criativas entre IA e humanos.</p><p>Pode parecer inusitada, até meio insólita, a automação da arte. Arte,</p><p>associada à abstração e à subjetividade, soa como antítese de computador,</p><p>lógico e objetivo. O fato é que proliferam tipos de arte baseadas em algoritmos</p><p>– ultra fractal, arte genética, proceduralismo e arte transumanista –, e sites</p><p>dedicados a esses artistas – �e Algorithms, Algorithmic Worlds, �e Art.</p><p>Estamos nos primórdios da IA, espera-se uma extraordinária evolução nas</p><p>próximas décadas. Por enquanto �ca a pergunta: a arte de inteligência arti�cial</p><p>é capaz de nos emocionar como a arte humana?</p><p>Avanços e diversidade na interface arte e tecnologia:</p><p>criatividade, inteligência e consciência</p><p>18.2.2022</p><p>O documentário �e Beatles: Get Back (Disney+, 2021) de Peter Jackson</p><p>narra a gravação, em janeiro de 1970, do penúltimo álbum da banda e do</p><p>documentário Let It Be (os integrantes se separaram em setembro do mesmo</p><p>ano). O projeto restaurou sessenta horas de �lmagem a partir de um áudio</p><p>captado por um único microfone, incluindo conversas paralelas e ruídos de</p><p>fundo. Para decompor o som original e isolar com precisão cada faixa, a equipe</p><p>de Jackson utilizou um sistema de inteligência arti�cial (IA) apelidado de</p><p>“MAL”, uma dupla homenagem ao computador HAL, do �lme 2001: uma</p><p>odisseia no espaço, e ao assistente dos Beatles, Mal Evans.202</p><p>Na música clássica, a IA permitiu um feito histórico: como parte das</p><p>comemorações dos 250 anos de Beethoven (2019), uma equipe de especialistas</p><p>liderada por Ahmed Elgammal, diretor do Art & AI Lab da Universidade de</p><p>Rutgers, e Matthias Röder, diretor do Instituto Karajan de Salzburgo, apoiada</p><p>em modelos de IA, dedicou-se a completar a 10ª Sinfonia inacabada de</p><p>Beethoven (com sua morte em 1827, o compositor deixou apenas notas e</p><p>rascunhos). O feito havia sido tentado por Barry Cooper em 1988, mas o</p><p>musicólogo só conseguiu completar o primeiro movimento a partir</p><p>assertividade a probabilidade de um tumor ser de</p><p>um determinado tipo de câncer, ou a probabilidade de uma imagem ser de um</p><p>cachorro, ou a previsão de quando um equipamento necessitará de reposição,</p><p>ou o candidato apropriado para determinada função, ou o tipo de serviço ou</p><p>produto adequado aos desejos do consumidor.</p><p>No estágio atual da IA, não se trata de ensinar as máquinas a pensar, mas</p><p>apenas a prever a probabilidade de os eventos ocorrerem, por meio de modelos</p><p>estatísticos e grandes quantidades de dados. Esses sistemas carecem da essência</p><p>da inteligência humana: capacidade de compreender o signi�cado. Apesar de</p><p>todos os esforços, houve pouco progresso em prover a IA de senso intuitivo, de</p><p>capacidade de formar conceitos abstratos e de fazer analogias e generalizações.</p><p>Conceitos básicos sobre o mundo – tridimensionalidade, movimentação e</p><p>permanência dos objetos, gravidade, inércia e rigidez – são aprendidos pelos</p><p>seres humanos essencialmente pela observação. Descobrir como incorporar esse</p><p>aprendizado às máquinas é a chave para o progresso da inteligência arti�cial,</p><p>ou seja, as máquinas serem capazes de aprender como o mundo funciona</p><p>assistindo a um vídeo do YouTube.</p><p>A tecnologia avança aceleradamente, mas ainda</p><p>distante da condição humana</p><p>31.10.2019</p><p>Em Hamburgo, importante cidade portuária no norte da Alemanha, em</p><p>2017, a polícia foi chamada pelos vizinhos porque a Alexa, assistente virtual da</p><p>Amazon, “estava dando uma festa com o som altíssimo”. O dono do</p><p>apartamento, Oliver Haberstroh, que na ocasião estava bebendo cerveja num</p><p>bar, ao voltar para casa encontrou uma nova fechadura; na delegacia do bairro</p><p>lhe entregaram as novas chaves e uma fatura. A Amazon, após minuciosa</p><p>investigação, alegou que a Alexa foi ativada remotamente, e o volume</p><p>aumentou através do aplicativo de streaming de música móvel de terceiros, mas</p><p>mesmo assim ofereceu pagar o custo do incidente. As duas hipóteses – defeito</p><p>do assistente virtual ou ativação remota – não con�guram autonomia, livre-</p><p>arbítrio, agenciamento, nenhum dos atributos que caracterizam os seres</p><p>humanos.</p><p>O Atlas é um humanoide criado pela Boston Dynamics em 2013, capaz de</p><p>reproduzir movimentos humanos, tais como saltar, girar no ar, dar</p><p>cambalhotas, todos efeitos do campo da robótica. Trata-se de um sistema de</p><p>controle avançado que, usando algoritmos de otimização, automatizou alguns</p><p>desses movimentos. A Sophia, criada em 2016 pela Hanson Robotics,</p><p>reconhecida como a fabricante de robôs “mais humanos”, é dotada de</p><p>expressividade, estética, interatividade, pele maleável, e tem dezenas de</p><p>computadores acoplados que permitem simular uma gama completa de</p><p>expressões faciais, rastrear o rosto do interlocutor, reconhecer faces e imitar as</p><p>expressões faciais de outras pessoas. O Atlas simula o sistema motor humano, a</p><p>Sophia simula o sistema cognitivo humano; o aprendizado é o elemento</p><p>comum entre os dois sistemas: construídos para aprender como aprender.</p><p>As máquinas inteligentes estão sendo concebidas para, com base em grandes</p><p>conjuntos de dados, “aprender” por meio de processos não totalmente</p><p>explicáveis, isto é, os desenvolvedores dessas máquinas não sabem exatamente</p><p>como elas aprendem para desempenhar as tarefas (a chamada “caixa-preta”, que</p><p>não deve ser confundida com autonomia). O cientista da computação Davi</p><p>Geiger alerta que aqui reside, talvez, a maior questão ética na inteligência</p><p>arti�cial, o fato de não sabermos o que e como as máquinas realmente</p><p>aprendem, não deixando de lembrar que também não sabemos o que e como</p><p>exatamente os humanos aprendem.</p><p>Os modelos de inteligência arti�cial amplamente utilizados são chamados</p><p>de “redes neurais”, porque são inspirados no funcionamento do cérebro</p><p>biológico. Simpli�cadamente, no cérebro ocorrem continuamente impulsos</p><p>nervosos (sinais químicos e elétricos) que são conduzidos até o próximo</p><p>neurônio, num fenômeno conhecido como sinapse, que transmite a</p><p>informação entre as camadas de neurônios (com mais precisão: a sinapse refere-</p><p>se à interrupção que ocorre entre as duas camadas de neurônios). Cada</p><p>neurônio tem uma espécie de antena, chamada de dendrito, que é o canal de</p><p>entrada da informação. Os modelos de redes neurais reproduzem essa lógica</p><p>(não são concebidos para executar tarefas a partir de equações prede�nidas, a</p><p>programação tradicional), e o nome deep learning (aprendizado profundo) vem</p><p>do fato de que possuem várias camadas de processamento compostas de</p><p>neurônios arti�ciais (cada camada aperfeiçoa uma parte da informação).</p><p>Segundo o neurocientista Roberto Lent, “mesmo as alternativas oferecidas pela</p><p>inteligência arti�cial, que podem propiciar retornos ‘inteligentes’ de</p><p>reciprocidade aos aprendizes, não atingiram ainda a riqueza de possibilidades</p><p>das interações entre humanos”.11</p><p>O ponto a ressaltar é que mesmo os sistemas mais so�sticados, como o da</p><p>Sophia, não chegam nem a tangenciar a complexidade do funcionamento do</p><p>cérebro biológico. O aprendizado humano depende de um grande número de</p><p>neurônios que, por sua vez, formam circuitos complexos responsáveis pela</p><p>nossa estrutura cognitiva e comportamental. Roberto Lent, em seu livro O</p><p>cérebro aprendiz, apresenta-nos alguns números ilustrativos dessa</p><p>complexidade: cada ser humano tem 86 bilhões de neurônios, e cada neurônio</p><p>recebe cerca de 100 mil sinapses (ordem de grandeza total na casa do</p><p>quatrilhão); a partir da décima semana de gestação, a produção de novos</p><p>neurônios no cérebro humano em desenvolvimento atinge aproximadamente a</p><p>velocidade de 250 mil novas células por minuto; as tecnologias atuais não</p><p>permitem estudar o cérebro humano em nível microscópico, levando os</p><p>cientistas a recorrerem a animais: o tempo de computação e análise utilizado</p><p>por pesquisadores chineses para estudar as conexões de 135 mil neurônios de</p><p>uma mosca foi de 10 anos, estimando-se em 17 milhões de anos o tempo</p><p>necessário para o mesmo procedimento no cérebro humano.12</p><p>A inteligência arti�cial hoje é fundamentalmente modelos estatísticos que,</p><p>baseados em dados, calculam a probabilidade de eventos ocorrerem. Esse</p><p>pequeno avanço tem sido responsável por transformações na economia, nas</p><p>relações pessoais, na sociedade em geral, mas estamos a léguas de distância da</p><p>chamada general AI (ou strong AI ou full AI), que, supostamente, seria uma</p><p>inteligência arti�cial dotada de capacidades de nível humano.</p><p>São as máquinas inteligentes?</p><p>7.2.2020</p><p>Máquinas “pensantes” e autônomas de seus criadores povoam a literatura e a</p><p>ciência há muito tempo. Em 1818, a escritora inglesa Mary Shelley publicou</p><p>Frankenstein ou o Prometeu moderno, considerado a primeira obra de �cção</p><p>cientí�ca. O romance relata a história do estudante de ciências naturais Victor</p><p>Frankenstein, que, no empenho em descobrir os mistérios da criação, dedica-se</p><p>a conceber um ser humano gigantesco. O monstro foge do laboratório e</p><p>refugia-se numa �oresta, onde aprende a sobreviver. Frankenstein tem</p><p>inteligência própria, autonomia e até mesmo sentimentos, semelhantemente</p><p>aos robôs dos �lmes de �cção cientí�ca.</p><p>Para citar outro romance, em 1872, o escritor britânico Samuel Butler</p><p>publicou Erewhon, considerado a primeira especulação sobre a possibilidade de</p><p>máquinas conscientes.13 Na �ctícia cidade de Erewhon não existem máquinas,</p><p>fruto da percepção amplamente compartilhada pelos erewonianos de que elas</p><p>são potencialmente perigosas. Num con�ito antigo entre os cidadãos pró-</p><p>máquinas e os antimáquinas, os últimos foram vitoriosos: “Veja, essas</p><p>máquinas estão �cando cada vez mais so�sticadas e capazes e nos lançarão de</p><p>surpresa no cativeiro. Nós nos tornaremos subservientes às máquinas e,</p><p>eventualmente, seremos descartados”.</p><p>O debate permeia igualmente a ciência, abordado por vários cientistas e</p><p>historiadores nos últimos dois séculos. O matemático inglês Alan Turing, no</p><p>texto de 1951 “Can Digital Computers �ink?” (“Os computadores digitais</p><p>podem pensar?”), pondera sobre os argumentos racionais a favor e contra a</p><p>ideia de que</p><p>de 250</p><p>compassos. A comprovação do resultado está na execução da obra �nal por</p><p>uma orquestra.203</p><p>Em janeiro de 2022, o artista norte-americano Brian Donnelly, conhecido</p><p>pro�ssionalmente como KAWS, inaugurou a exposição New Fiction,</p><p>simultaneamente, na Serpentine Gallery, em Kensington Gardens, Londres, e</p><p>no Fortnite. KAWS e a Epic Games, dona desse jogo eletrônico, cocriaram a</p><p>exposição digital com o Alliance Studios e a Beyond Creative. No empenho em</p><p>transformar o jogo em um “destino de entretenimento social”, segundo o seu</p><p>diretor Kevin Durkin, cerca de 400 milhões de usuários viram a exposição</p><p>virtual.</p><p>O documentário dos Beatles, a �nalização da sinfonia de Beethoven e a</p><p>exposição de arte no Fortnite ilustram a atual diversidade da interface entre arte</p><p>e tecnologia. A produção artística ocorre em uma multiplicidade de formatos e</p><p>contextos criativos denominados arte computacional, arte interativa, arte</p><p>eletrônica, ciberarte, arte digital, media art, arte generativa, entre outros. São</p><p>múltiplos, igualmente, os movimentos artísticos baseados em IA como Ultra</p><p>Fractal, Arte Cinética, Proceduralismo e Arte Transumanista, e os sites</p><p>dedicados a esses artistas, como �e Algorithms, Algorithmic Worlds e �e</p><p>Art. A plataforma AIArtists.org agrega a maior comunidade global de artistas</p><p>envolvidos com IA.</p><p>O Alan Turing Institute (ATI)204 pondera que um número crescente de</p><p>artistas está experimentando a IA no aprimoramento, na simulação ou na</p><p>réplica de suas criatividades. A complexidade desses sistemas requer intensa</p><p>colaboração entre especialistas de IA e artistas, com o desa�o de aproximar</p><p>linguagens e lógicas distintas e, posteriormente, de�nir a quem cabe a</p><p>propriedade intelectual. A IA oferece oportunidades sem precedentes para</p><p>novas interfaces homem-máquina que afetam a sociedade cultural e</p><p>socialmente (para o bem e para o mal).</p><p>Como a IA interage com a criatividade, especialmente em produções</p><p>artísticas “autônomas”, é um tema �losó�co em aberto: obras de arte</p><p>produzidas por IA são criativas? Na inevitável comparação entre cérebro</p><p>biológico e sistemas de IA (particularmente as redes neurais profundas,</p><p>inspiradas no conceito de conexionismo), a questão da criatividade remete à</p><p>inteligência e à consciência, temas abordados no novo livro Reality+: Virtual</p><p>Worlds and the Problems of Philosophy, do �lósofo David Chalmers.205</p><p>A tecno�loso�a de Chalmers estabelece uma interação bidirecional entre</p><p>�loso�a e tecnologia: fazer perguntas �losó�cas sobre tecnologia e usar a</p><p>tecnologia para responder às perguntas �losó�cas. O �lósofo denomina o</p><p>desa�o de explicar o “problema difícil da consciência” (hard problem of</p><p>consciousness) em contraste com os problemas fáceis de explicar, por exemplo, a</p><p>inteligência que, para ele, é uma característica objetiva expressa no</p><p>comportamento, enquanto a consciência é subjetiva. Chalmers levanta várias</p><p>hipóteses sobre o que seria e como se comporta a consciência, apostando na</p><p>viabilidade da ideia de “máquina consciente” por meio do upload da mente</p><p>humana para um computador em um processo gradual (1% dos neurônios por</p><p>dia) capaz de transferir a consciência original do cérebro humano para o</p><p>cérebro maquínico: “Fazer um novo cérebro de uma só vez pode criar uma</p><p>nova pessoa, mas a substituição gradual deixa a pessoa velha intacta. [...] Pre�ro</p><p>fazê-lo por upload gradual. Essa parece ser a melhor aposta para sobreviver ao</p><p>processo e sair consciente do outro lado”, conclui o �lósofo. Essa ideia,</p><p>contudo, não parece factível frente à complexidade do cérebro humano.</p><p>Roberto Lent, professor emérito da Universidade Federal do Rio de Janeiro</p><p>(UFRJ) e um dos maiores especialistas em cérebro, pondera que o tema da</p><p>consciência está envolto numa nuvem de obscuridade difícil de ultrapassar: “As</p><p>propriedades mentais são sempre inesperadas porque estão sujeitas à</p><p>propriedade intrínseca do cérebro, que é mudar a todo momento”.206 Essa</p><p>habilidade chama-se neuroplasticidade: a capacidade do cérebro de mudar,</p><p>adaptar-se e moldar-se a nível estrutural e funcional quando sujeito a novas</p><p>experiências do ambiente interno e externo. A dinâmica do cérebro é altamente</p><p>modulável, e não uma cadeia de informação linear que leva diretamente a um</p><p>resultado previsível.</p><p>Cada cérebro humano contém 86 bilhões de neurônios que se conectam uns</p><p>aos outros por meio de sinapses, e cada neurônio realiza 100 mil sinapses,</p><p>gerando cerca de 8,6 quatrilhões de circuitos. No processo de transmissão da</p><p>informação (comunicação), o cérebro conta ainda com 85 bilhões de células</p><p>coadjuvantes. A cada novo aprendizado, por exemplo quando uma criança</p><p>começa a aprender a ler e escrever, o hemisfério A, que originalmente se</p><p>ocupava da função “reconhecimento de faces”, transfere-se para o hemisfério B,</p><p>permitindo que aquele assuma as novas funções (aprender a ler e escrever não</p><p>são habilidades inatas, precisam ser aprendidas).207</p><p>Do ponto de vista da neurociência, ainda segundo Lent, pode-se abordar o</p><p>cérebro em três níveis heurísticos: a) microescala, perspectiva reducionista em</p><p>que se considera os neurotransmissores, as moléculas transmissoras que</p><p>participam da sinapse; b) mesoescala, com distintas graduações em que o foco</p><p>são as redes de neurônios em comunicação – neurônios inibidores, excitadores</p><p>e modulares – que transformam completamente a informação inicial; c)</p><p>macroescala que contempla o cérebro como um todo em comunicação com</p><p>outros cérebros ativando as redes de linguagem, consultando a memória em</p><p>busca de nexos no diálogo, acessando circunstâncias emocionais que</p><p>modi�cam a memória, a informação e a forma de se comunicar com os</p><p>interlocutores; e d) grupos de cérebros que se comunicam com outros grupos</p><p>de cérebros, por exemplo, alunos de uma sala de aula em interação simultânea</p><p>com alunos de outra sala de aula.</p><p>Algumas perguntas básicas para Chalmers (ou quem estiver apto a</p><p>responder): como conciliar essa complexidade com o upload de 1% dos</p><p>neurônios por dia? Quais tipos de neurônios estariam representados nesse</p><p>conjunto de 1%? Como seria feita a seleção dos neurônios? Após transferidos,</p><p>como seriam conservados? Como se daria a agregação de cada conjunto de 1%</p><p>de neurônios transferidos? E quais são os indicadores de que os neurônios</p><p>transferidos para o computador serão substituídos por neurônios com a mesma</p><p>identidade, garantindo a manutenção intacta da consciência original?</p><p>Pensar, ou mesmo meramente especular, sobre qualquer tema é válido,</p><p>contribui para formular hipóteses a serem ou não comprovadas</p><p>posteriormente; o risco está em construir conceitos baseados em concepções</p><p>incertas, ou não claramente comprovadas por evidências cientí�cas, por</p><p>exemplo, supor a viabilidade de uma IA consciente se ainda estamos longe de</p><p>dominar o conhecimento sobre o cérebro e a consciência.</p><p>E</p><p>xiste um paradoxo em nosso relacionamento com os sistemas maquínicos: a</p><p>tendência inicial é con�ar plenamente neles como “mestres onipotentes”,</p><p>contudo, assim que descobrimos suas limitações, ou seja, que podem</p><p>cometer erros, entramos num processo de rejeição absoluta, privilegiando nossa</p><p>própria capacidade de julgamento, ignorando as falhas humanas, os</p><p>preconceitos, as subjetividades, o inconsciente. Os especialistas denominam</p><p>esse comportamento de “aversão a algoritmos”. Em geral, percebe-se uma</p><p>tolerância menor aos erros dos algoritmos do que aos erros humanos. O</p><p>“melhor dos mundos” é promover a parceria entre sistemas automatizados (IA)</p><p>e especialistas humanos, cada um contribuindo com seus atributos distintivos.</p><p>Este bloco é o maior, com nove artigos, numa tentativa de tangenciar a</p><p>profundidade e complexidade dessa inédita interface homem-máquina. São</p><p>abordados, entre outros, temas como o efeito da IA sobre nossa capacidade</p><p>decisória; o vício em tecnologia, tema retomado no último artigo do bloco “IA</p><p>e saúde”; algumas distinções entre a inteligência humana e a inteligência de</p><p>máquina, inclusive a ponderação sobre a aplicabilidade do</p><p>as máquinas possam ser levadas a pensar, e sobre a analogia entre</p><p>máquina e cérebro.14 Segundo ele, admitir que ambos sejam análogos</p><p>envolveria assumir também que as máquinas sejam dotadas de livre-arbítrio, o</p><p>que não faz sentido no caso de um computador digital programado (ele</p><p>mesmo, contudo, questiona esse atributo como diferencial, aventando a</p><p>hipótese de que o sentimento de livre-arbítrio dos seres humanos seja mera</p><p>ilusão). A inteligência não deve ser confundida com a aleatoriedade,</p><p>potencialmente responsável pela capacidade das máquinas de nos surpreender</p><p>ao entregarem resultados distintos da programação (ou distintos da intenção</p><p>inicial).</p><p>Avançando no tempo, o historiador Yuval Harari, em seu Homo Deus: uma</p><p>breve história do amanhã, alinhado com a visão de que “consciência” é um</p><p>atributo humano, advoga que o advento das máquinas inteligentes representa</p><p>um descolamento entre inteligência e consciência, gerando dois tipos de</p><p>inteligência: a inteligência consciente e a inteligência não consciente.15 Com</p><p>essa restrição, Harari impõe um limite ao progresso da IA: as máquinas</p><p>inteligentes, ao não serem dotadas de consciência, nunca vão competir com a</p><p>inteligência humana.</p><p>O avanço da inteligência arti�cial intensi�cou o debate sobre quais são os</p><p>limites das máquinas, tanto na �cção quanto na ciência. Deixando de lado o</p><p>futuro da IA, mantendo o foco nos modelos estatísticos de probabilidade</p><p>(modelos de machine learning e deep learning), que são a maior parte das</p><p>aplicações atuais de IA, Stuart Russell, um dos mais renomados cientistas da</p><p>computação, em seu livro Human Compatible: Arti�cial Intelligence and the</p><p>Problem of Control (na edição brasileira, 2021, Inteligência Arti�cial a Nosso</p><p>Favor: como manter o controle sobre a tecnologia),16 propõe pensar sobre o que</p><p>signi�ca “perder o controle” sobre as máquinas.</p><p>Para Russell, a crença de que estaríamos na eventualidade de perder o</p><p>controle sobre as “máquinas inteligentes” baseia-se em um erro inicial na</p><p>de�nição de IA. Para começar, as máquinas não são “inteligentes” no sentido</p><p>dado pelos seres humanos – ser capaz de agir para atingir objetivos próprios –,</p><p>pelo contrário, elas não têm objetivos, são os seres humanos que imputam seus</p><p>objetivos nos sistemas inteligentes (são máquinas de otimização). O que não</p><p>impede, no entanto, que as máquinas inteligentes encontrem soluções</p><p>melhores do que os seres humanos, o que é uma realidade com as tecnologias</p><p>de IA.</p><p>Russell propõe abandonar a ideia de “máquinas inteligentes” em favor de</p><p>“máquinas bené�cas”, na medida em que se espera que suas ações atinjam os</p><p>objetivos dos seres humanos, melhorando a vida em sociedade. “O que temos</p><p>hoje é uma relação binária, uma propriedade do sistema composto pela</p><p>máquina e pelos seres humanos, com resultados superiores aos obtidos</p><p>individualmente. As máquinas funcionam como uma espécie de metade de um</p><p>sistema combinado com os seres humanos”, argumenta.</p><p>A autodenominação “Homo sapiens” (homem sábio) expressa a crença dos</p><p>seres humanos de que sua superioridade esteja no fato de serem os únicos seres</p><p>vivos dotados de inteligência. Não apenas satisfeitos com essa aparente “dádiva</p><p>divina”, buscamos entender como funciona o cérebro humano, o que é</p><p>consciência, quais os mecanismos produtores do pensamento e, mais ainda,</p><p>estamos empenhados em dotar as máquinas de ao menos parte desses atributos.</p><p>Se algum dia as máquinas serão efetivamente inteligentes, por enquanto,</p><p>pertence ao campo da �cção.</p><p>Redes neurais arti�ciais e a complexidade do cérebro</p><p>humano</p><p>14.8.2020</p><p>A ideia de usar a lógica de aprendizagem em uma máquina remete, ao</p><p>menos, a Alan Turing. Em seu artigo seminal de 1950 “Computing Machinery</p><p>and Intelligence” (“Maquinaria computacional e inteligência”), em que propõe</p><p>um teste para a pergunta se uma máquina pode pensar, Turing cogita a ideia de</p><p>produzir um programa que, em vez de simular a mente do adulto, simule a</p><p>mente de uma criança. Evoluindo ao longo do tempo, ele a chamou de</p><p>“máquina-criança”.17</p><p>O campo da inteligência arti�cial foi inaugurado num seminário de verão,</p><p>em 1956, com a premissa de que “todos os aspectos da aprendizagem ou</p><p>qualquer outra característica da inteligência podem, em princípio, ser descritos</p><p>tão precisamente que uma máquina pode ser construída para simulá-la”.18</p><p>Quase 70 anos depois, a IA ainda está restrita a modelos empíricos, o campo</p><p>não possui uma teoria, e é controversa a associação de conceitos como</p><p>inteligência e aprendizado a máquinas.</p><p>Apostando na superação das limitações cientí�cas atuais, um grupo de</p><p>líderes do Vale do Silício está empenhado em “vencer a morte”, atingir o que</p><p>eles chamam de “amortalidade”. Ray Kurzweil, no livro A singularidade está</p><p>próxima, prevê que ao �nal do século XXI a parte não biológica da inteligência</p><p>humana será trilhões de vezes mais poderosa que a inteligência humana</p><p>biológica, e não haverá distinção entre humanos e máquinas.19 Em 2013, o</p><p>Google fundou a Calico, empresa dedicada a “resolver a morte”, em seguida</p><p>nomeou Bill Maris, igualmente empenhado na busca da imortalidade, como</p><p>presidente do fundo de investimento Google Venture, que aloca 36% do total</p><p>de 2 bilhões de dólares em startups de biociência com projetos associados a</p><p>prorrogar a vida. No mesmo ano, Peter Diamandis, cofundador e presidente</p><p>executivo da Singularity University, lançou a empresa Human Longevity,</p><p>dedicada a combater o envelhecimento, projetando que o aumento da</p><p>longevidade criaria um mercado global de 3,5 trilhões de dólares.</p><p>A startup Neuralink, fundada por Elon Musk em 2016, investe no</p><p>desenvolvimento de uma interface cérebro-computador que possibilitaria, por</p><p>exemplo, fazer streaming de música diretamente no cérebro; outro foco é</p><p>viabilizar a transferência da mente humana para um computador, libertando o</p><p>cérebro do corpo envelhecido e acoplando-o a uma “vida digital”, num</p><p>processo chamado “mind-upload” (transferência da mente humana). Essa visão</p><p>utópica pós-humanista supõe que esses melhoramentos conduzirão à vitória</p><p>sobre o envelhecimento biológico, portanto, ao nascimento de uma nova</p><p>espécie: os pós-humanos, libertados de seu corpo mortal.</p><p>Na visão de Yoshua Bengio, um dos três idealizadores da técnica de IA deep</p><p>learning: “Esses tipos de cenários não são compatíveis com a forma como</p><p>construímos atualmente a IA. As coisas podem ser diferentes em algumas</p><p>décadas, não tenho ideia, mas, no que me diz respeito, isso é �cção</p><p>cientí�ca”.20</p><p>O ponto de partida para avaliar quão distante a ciência está dessas ideias é</p><p>compreender a arquitetura e o funcionamento do cérebro. O neurocientista</p><p>Roberto Lent, em recente conversa no ciclo de debates do TIDDigital,</p><p>traduziu a extrema complexidade do cérebro humano em números: cada ser</p><p>humano possui 86 bilhões de neurônios e 85 bilhões de células coadjuvantes</p><p>no processo da informação.21 Considerando apenas os neurônios, como em</p><p>média ocorrem 100 mil sinapses por neurônio, temos um total aproximado de</p><p>8,6 quatrilhões de circuitos que, ainda por cima, são plásticos, ou seja,</p><p>mutáveis continuamente.</p><p>Numa sinapse, transmissão da informação de um neurônio para outro, o</p><p>segundo neurônio pode bloquear a informação, modi�car a informação,</p><p>aumentar a informação, ou seja, a informação que passa para o segundo</p><p>neurônio pode ser bastante diferente daquela que entrou, indicando a enorme</p><p>capacidade do cérebro em modi�car a informação. As regiões responsáveis pela</p><p>memória e pelas emoções, entre outros fatores, afetam a informação inicial.</p><p>O aprendizado de uma criança, que alguns comparam com o aprendizado</p><p>de máquina, ocorre por complexos processos cerebrais. Segundo Lent, para</p><p>aprender a escrever, uma criança precisa formar uma conexão entre escrita e</p><p>signi�cado, e para isso usa a região do hemisfério esquerdo do cérebro, antes</p><p>usada para o reconhecimento de faces. Isso acontece porque não temos uma</p><p>área cerebral da escrita e da leitura; essas habilidades são construtos da</p><p>civilização</p><p>que têm “apenas” quatro mil anos, logo não houve tempo evolutivo</p><p>su�ciente para haver uma área cerebral especí�ca. A região de reconhecimento</p><p>de faces, desenvolvida nos primeiros anos do bebê, desloca-se, portanto, do</p><p>hemisfério esquerdo para o direito, e ali, no hemisfério esquerdo, começa a ser</p><p>implantada uma região de reconhecimento de símbolos da escrita. Isso mostra</p><p>o grau de plasticidade do cérebro, ao realocar funções que vão aparecendo</p><p>durante a vida do indivíduo com novas aquisições culturais.</p><p>A neuroplasticidade – capacidade do cérebro de mudar, adaptar-se e</p><p>moldar-se em nível estrutural e funcional, quando sujeito a novas experiências</p><p>do ambiente interno e externo – gera uma complexidade que é difícil</p><p>reproduzir em uma máquina. A dinâmica do cérebro é altamente modulável,</p><p>não é uma cadeia de informação linear que leva diretamente a um resultado</p><p>previsível, como também nos ensinou Roberto Lent.</p><p>Para Yann LeCun, outro dos três idealizadores da técnica de deep learning, a</p><p>observação e a interação da criança com o mundo desempenham um papel</p><p>central no aprendizado infantil, incluindo a noção de que o mundo é</p><p>tridimensional, tem gravidade, inércia e rigidez. Esse tipo de acúmulo de</p><p>enorme quantidade de conhecimento é que não se sabe como reproduzir nas</p><p>máquinas – observar o mundo e descobrir como ele funciona.</p><p>Andrew Ng, respeitado cientista e empreendedor em inteligência arti�cial,</p><p>crê que o maior problema da IA seja de comunicação: “O tremendo progresso</p><p>por meio da IA ‘estreita’ está fazendo com que as pessoas argumentem</p><p>erroneamente que há um tremendo progresso na AGI (arti�cial general</p><p>intelligence). Francamente, não vejo muito progresso em direção à AGI”.22 A</p><p>inteligência arti�cial que atualmente permeia aplicativos, plataformas online,</p><p>sistemas de rastreamento e de reconhecimento facial, diagnósticos médicos,</p><p>modelos de negócio, redes sociais, plataformas de busca, otimização de</p><p>processos, chatbots e mais uma in�nidade de tarefas automatizáveis é apenas</p><p>um modelo estatístico de probabilidade baseado em dados, “anos-luz” distante</p><p>da complexidade do cérebro humano.</p><p>Da personalização do discurso em Aristóteles à</p><p>personalização com algoritmos de inteligência arti�cial</p><p>11.9.2020</p><p>Os algoritmos de inteligência arti�cial atuam como curadores da</p><p>informação, personalizando, por exemplo, as respostas nas plataformas de</p><p>busca, como o Google, e a seleção do que será publicado no feed de notícias de</p><p>cada usuário do Facebook. O ativista Eli Pariser reconhece a utilidade de</p><p>sistemas de relevância, ao fornecer conteúdo personalizado, mas alerta para os</p><p>efeitos negativos da formação de “bolhas”, ao reduzir a exposição a opiniões</p><p>divergentes.23 Para Cass Sunstein, esses sistemas são responsáveis pelo aumento</p><p>da polarização cultural e política, pondo em risco a democracia.24 Existem</p><p>muitas críticas a esses sistemas, algumas justas, outras nem tanto. O fato é que</p><p>personalização, curadoria, clusterização, mecanismos de persuasão, nada disso é</p><p>novo, cabe é investigar o que mudou com a IA.</p><p>A personalização do discurso, por exemplo, remete a Aristóteles. A arte de</p><p>conhecer o ouvinte e adaptar o discurso ao seu per�l, não para convencê-lo</p><p>racionalmente, mas para conquistá-lo pelo “coração”, é o tema da obra</p><p>Retórica. Composta de três volumes, o Livro II é dedicado ao plano emocional,</p><p>listando as emoções que devem conter um discurso persuasivo: ira, calma,</p><p>amizade, inimizade, temor, con�ança, vergonha, desvergonha, amabilidade,</p><p>piedade, indignação, inveja e emulação. Para o �lósofo, todos, de algum modo,</p><p>praticam a retórica na sustentação de seus argumentos. Essa obra funda as bases</p><p>da retórica ocidental, que, com seus mecanismos de persuasão, busca</p><p>in�uenciar o interlocutor, seja ele usuário, consumidor, cliente ou eleitor.</p><p>Cada modelo econômico tem seus próprios mecanismos de persuasão, que</p><p>extrapolam motivações comerciais com impactos culturais e comportamentais.</p><p>Na economia industrial, caracterizada pela produção e pelo consumo massivo</p><p>de bens e serviços, a propaganda predominou como meio de convencimento</p><p>nas decisões dos consumidores, inicialmente tratados como uma massa de</p><p>indivíduos indistinguíveis. O advento das tecnologias digitais viabilizou a</p><p>comunicação segmentada em função de características, per�s e preferências</p><p>similares, mas ainda distante da hipersegmentação proporcionada pelas</p><p>tecnologias de inteligência arti�cial.</p><p>A hipersegmentação com algoritmos de IA é baseada na mineração de</p><p>grandes conjuntos de dados (big data) e so�sticadas técnicas de análise e</p><p>previsão, particularmente os modelos estatísticos de redes neurais/deep learning.</p><p>Esses modelos permitem extrair dos dados informações sobre seus usuários e</p><p>consumidores e fazer previsões com relativamente alto grau de acurácia –</p><p>desejos, comportamentos, interesses, padrões de pesquisa, por onde circulam,</p><p>bem como a capacidade de pagamento e até o estado de saúde. Os algoritmos</p><p>de IA transformam em informação útil a imensidão de dados gerados nas</p><p>movimentações online.</p><p>Na visão de Shoshana Zubo�, a maior ameaça não está nos dados</p><p>produzidos voluntariamente em nossas interações nos meios digitais (“dados</p><p>consentidos”), mas nos “dados residuais”, sob os quais os usuários de</p><p>plataformas online não exercem controle.25 Até 2006, os dados residuais eram</p><p>desprezados, mas, com a so�sticação dos modelos preditivos de inteligência</p><p>arti�cial, tornaram-se valiosos: a velocidade de digitalização, os erros</p><p>gramaticais cometidos, o formato dos textos, as cores preferidas e mais uma</p><p>in�nidade de detalhes do comportamento dos usuários são registrados e</p><p>inseridos na extensa base de dados, gerando projeções sobre o comportamento</p><p>humano atual e futuro. Outro aspecto ressaltado por Zubo� é que as</p><p>plataformas tecnológicas, em geral, captam mais dados do que o necessário</p><p>para a dinâmica de seus modelos de negócio, ou seja, para melhorar produtos e</p><p>serviços, e os utilizam para prever o comportamento de grupos especí�cos</p><p>(“excedente comportamental”).</p><p>Esses processos de persuasão ocorrem em níveis invisíveis, sem</p><p>conhecimento ou consentimento dos usuários, que desconhecem o potencial e</p><p>a abrangência das previsões dos algoritmos de inteligência arti�cial; num nível</p><p>mais avançado, essas previsões envolvem personalidade, emoções, orientação</p><p>sexual e política, ou seja, um conjunto de informações que em tese não era a</p><p>intenção do usuário revelar. As fotos postadas nas redes sociais, por exemplo,</p><p>geram os chamados “sinais de previsão”, tais como os músculos e a simetria da</p><p>face, informações utilizadas no treinamento de algoritmos de IA de</p><p>reconhecimento de imagem.</p><p>A escala atual de geração, armazenamento e mineração de dados, associada</p><p>aos modelos assertivos de personalização, é um dos elementos-chave da</p><p>mudança de natureza dos atuais mecanismos de persuasão. Comparando os</p><p>modelos tradicionais com os de algoritmos de inteligência arti�cial, é possível</p><p>detectar a extensão dessa mudança: de mensagens elaboradas com base em</p><p>conhecimento super�cial e limitado do público-alvo, a partir do entendimento</p><p>das características generalistas das categorias, para mensagens elaboradas com</p><p>base no conhecimento profundo e detalhado, minucioso, do público-alvo,</p><p>hipersegmentação e personalização; de correlações entre variáveis determinadas</p><p>pelo desenvolvedor do sistema para correlações entre variáveis determinadas</p><p>automaticamente com base nos dados dos usuários; de recursos limitados para</p><p>associar comportamentos o�ine e online para a capacidade de capturar e</p><p>armazenar dados de comportamento o�ine e agregá-los aos dados capturados</p><p>online, formando uma base de dados única, mais completa, mais diversi�cada,</p><p>mais precisa; de mecanismos de persuasão visíveis (propaganda na mídia) e</p><p>relativamente visíveis (propaganda na internet) para mecanismos de persuasão</p><p>invisíveis; de baixo grau de assertividade para alto grau de assertividade; de</p><p>instrumentos limitados de medição/veri�cação dos resultados</p><p>para</p><p>instrumentos mais precisos; de limitada capacidade preditiva de tendências</p><p>futuras para capacidade com grau de acurácia média em torno de 80-90%,</p><p>com possibilidade de previsão de quando essas tendências podem se realizar; e</p><p>de reduzida capacidade de distorcer imagem e voz para enorme capacidade de</p><p>distorcer imagem e voz, com as deep fakes.</p><p>Como sempre, cabe à sociedade encontrar um ponto de equilíbrio entre os</p><p>benefícios e as ameaças da inteligência arti�cial. No caso, entre a proteção aos</p><p>direitos humanos civilizatórios e a inovação e o avanço tecnológico, e entre a</p><p>curadoria da informação e a manipulação do consumo, do acesso à informação</p><p>e dos processos democráticos.</p><p>Interpretabilidade e con�ança: variáveis</p><p>interdependentes nos modelos de redes neurais</p><p>9.10.2020</p><p>No campo da inteligência arti�cial, a técnica de aprendizado de máquina</p><p>conhecida como redes neurais de aprendizado profundo (deep learning neural</p><p>networks, DLNN) está sendo cada vez mais usada na tomada de decisões</p><p>médicas, particularmente quando envolvem reconhecimento de imagem, uma</p><p>das áreas mais bem-sucedidas de implementação da IA. A lógica é semelhante</p><p>ao processo de investigação do médico: correlaciona os sintomas descritos pelo</p><p>paciente com o “banco de dados” armazenado em sua memória, acrescido de</p><p>pesquisas em plataformas médicas, buscando semelhanças que levem ao</p><p>diagnóstico. Os algoritmos de IA, no caso de reconhecimento de imagem de</p><p>uma tomogra�a, por exemplo, tendem a identi�car anomalias com mais</p><p>assertividade porque a correlacionam com uma base maior de dados e captam</p><p>sinais imperceptíveis a outros processos.</p><p>A técnica de redes neurais, contudo, já possui intrinsecamente uma variável</p><p>de incerteza por ser um modelo estatístico de probabilidade. Os cientistas estão</p><p>empenhados é em reduzir a chamada caixa-preta (black-box), ou seja, serem</p><p>capazes de explicar como o sistema chegou a determinada previsão e,</p><p>preferencialmente, de forma que o usuário compreenda e possa até identi�car</p><p>os erros cometidos pelos algoritmos. Existe um trade-o� entre precisão e</p><p>interpretabilidade: quanto maior a precisão, menor a transparência em relação</p><p>ao seu funcionamento. Diferentemente das sugestões da Net�ix ou do Waze,</p><p>em que uma recomendação equivocada não tem maiores consequências, na</p><p>medicina a opacidade da técnica contribui, legitimamente, para a resistência</p><p>dos pro�ssionais de saúde em adotá-la.</p><p>A arquitetura dessa técnica é composta de várias camadas intermediárias</p><p>(camadas “escondidas”, daí advém o nome de redes neurais profundas), que</p><p>interpretam detalhes de uma imagem não perceptíveis aos seres humanos</p><p>(padrões invisíveis). A alta dimensionalidade dos modelos (valores e</p><p>quantidades de pixels, por exemplo, no reconhecimento de imagem) requer</p><p>uma matemática complexa, agravando ainda mais a di�culdade de</p><p>compreensão pelos usuários (na verdade, transcende a capacidade da cognição</p><p>humana).</p><p>Os dados também afetam o grau de con�abilidade nos resultados. Como o</p><p>sistema estabelece correlações com base nos dados, a fonte e a qualidade deles é</p><p>fator crítico (além das questões éticas, como privacidade). Se o usuário</p><p>suspeitar das fontes de dados, di�cilmente levará em conta em suas decisões as</p><p>previsões do sistema de inteligência arti�cial, particularmente, importante</p><p>enfatizar, em áreas sensíveis como saúde.</p><p>Qualquer máquina é concebida para funcionar e, antes de ser</p><p>comercializada, é submetida a uma série de testes, em que são apurados</p><p>indicadores con�áveis, com percentuais de acerto em níveis aceitáveis para</p><p>considerá-la aprovada. No caso de máquinas de inteligência arti�cial, o</p><p>processo é bem mais complexo, por conta da opacidade (caixa-preta). A</p><p>chamada interpretabilidade do sistema de IA é a tentativa de entender e</p><p>determinar qual grau de con�ança atribuir ao resultado obtido. Por exemplo,</p><p>quando se classi�cam “cachorro” e “gato”, temos duas unidades de saída da</p><p>rede, uma representando um cachorro, e a outra, um gato. Dado um input,</p><p>digamos, uma imagem de um gato, a unidade que representa gato light up (�ca</p><p>com um valor perto de 1), enquanto a unidade que representa cachorro não</p><p>light up (�ca com um valor perto de zero). Assim, a rede conclui que é gato.</p><p>Quanto mais a unidade do gato é perto de 1, e quanto mais a unidade de</p><p>cachorro é perto de 0, mais se tem con�ança de que se trata de um gato.</p><p>Existem métodos mais so�sticados; por exemplo, pode-se olhar para</p><p>unidades dentro da rede, não no output (saída/resultado), permitindo visualizar</p><p>que unidades são mais ativadas quando o sistema funciona bem nos testes e</p><p>que unidades são mais ativadas quando não funciona bem nos testes, e assim</p><p>pode-se “entender melhor” se vai funcionar ou não para um dado de entrada.</p><p>Por exemplo: se fotos de animais sem orelha são input no sistema, e nota-se que</p><p>certas unidades que sempre são light up não são mais light up quando não há</p><p>orelha, aí pode-se interpretar essas unidades como detectoras da existência de</p><p>orelha.</p><p>Estão em curso esforços cientí�cos para criar interpretações amigáveis do</p><p>funcionamento dos modelos de redes neurais, ou seja, tornar acessíveis sistemas</p><p>complexos. Um dos caminhos que vem sendo investigado é por meio de</p><p>exemplos; o propósito é ajudar o usuário a entender o resultado e determinar o</p><p>grau de con�abilidade em um sistema “imperfeito”, contribuindo para inferir</p><p>porque um algoritmo gerou um determinado output. É o que recomendam as</p><p>diretrizes do Guidebook, do Google,26 aos seus desenvolvedores e designers com</p><p>o propósito de melhorar a con�abilidade de seus produtos para os usuários.</p><p>O guia defende que sejam formuladas e explicitadas explicações parciais</p><p>sobre o funcionamento do modelo, mesmo que deixem de contemplar as</p><p>partes mais complexas, de difícil entendimento para o usuário médio. A aposta</p><p>da People + AI Research (PAIR), área responsável pelo guia, coliderada pela</p><p>brasileira Fernanda Viégas, é que quanto maior for a transparência, maior será</p><p>o potencial de in�uenciar positivamente a experiência do usuário, aumentando</p><p>a chance de ele tomar uma decisão com base na recomendação do modelo.</p><p>Essa técnica de inteligência arti�cial amplamente usada oferece diversos</p><p>benefícios, mas tem limitações. O mais prudente é que seus usuários não</p><p>con�em plenamente nos seus resultados. Em primeiro lugar, porque são</p><p>técnicas estatísticas de probabilidade, logo, possuem grau de incerteza</p><p>intrínseco, e, em segundo, por conta da opacidade de seu funcionamento</p><p>(como con�ar plenamente em algo que não se domina, não se compreende?),</p><p>além das várias limitações técnicas. A inteligência arti�cial implementada</p><p>atualmente em larga escala deve ser encarada como parceira dos pro�ssionais</p><p>humanos nos processos de decisão, e não soberana, ou seja, capaz de contribuir</p><p>para aumentar a inteligência humana especializada, e não substituí-la.</p><p>Base de dados para treinar algoritmo de IA não é</p><p>salsicha: qualidade dos “ingredientes” é crítica</p><p>12.11.2021</p><p>“O mundo ao nosso redor é cada vez mais coreografado pelos algoritmos de</p><p>inteligência arti�cial”, sentencia o jornalista de tecnologia da �e New Yorker</p><p>Matthew Hutson, em artigo publicado na prestigiada revista IEEE Spectrum.27</p><p>A IA está no cerne dos modelos de negócio das plataformas e aplicativos</p><p>tecnológicos e das decisões automatizadas, logo mediando a vida dos cidadãos</p><p>do século XXI. Pela aparente assertividade de seus resultados, a inteligência</p><p>arti�cial tem sido aplicada indiscriminadamente, sem avaliação e controle de</p><p>riscos. Sistemas de IA não auditados são utilizados em áreas sensíveis, com</p><p>impacto direto na vida das pessoas.</p><p>A técnica de aprendizado de máquina (machine learning), que permeia a</p><p>maior parte das implementações atuais de inteligência arti�cial, redes neurais</p><p>profundas (deep learning), consiste em extrair padrões de grandes conjuntos de</p><p>dados, origem de seu sucesso, mas igualmente de sua fragilidade. Durante anos</p><p>diversas bases de dados tendenciosas foram usadas para desenvolver e treinar</p><p>algoritmos de IA, sem nenhum escrutínio. “Reunir dados de qualidade</p><p>em</p><p>grande escala é caro e difícil. Criar grandes conjuntos de dados logo se tornou a</p><p>versão da IA para a fabricação de salsichas: tedioso e difícil, com alto risco de</p><p>usar ingredientes ruins”, pondera Hutson.</p><p>O ImageNet, banco de imagem utilizado intensamente pelos</p><p>desenvolvedores de inteligência arti�cial, demorou uma década para reconhecer</p><p>o viés na rotulagem de suas imagens, e, mesmo assim, só o fez após denúncia</p><p>do artista norte-americano Trevor Paglen. Por meio do aplicativo ImageNet</p><p>Roulette, idealizado por Paglen, qualquer usuário pode checar como o sistema</p><p>do ImageNet classi�ca sua foto, basta fazer o upload da imagem no aplicativo</p><p>(com muitas surpresas).</p><p>Os administradores do ImageNet, criado em 2009, publicaram um artigo,</p><p>em janeiro de 2020, no qual reconheciam que, na categoria “pessoas”, 56%</p><p>“são rótulos potencialmente ofensivos que não devem ser usados no contexto</p><p>de um conjunto de dados de reconhecimento de imagem”. No �nal do</p><p>processo de revisão, permaneceram apenas 6% das categorias originais de</p><p>pessoas.28</p><p>Brian Christian, no livro �e Alignment Problem: Machine Learning and</p><p>Human Values (Problema do alinhamento: aprendizado de máquina e valores</p><p>humanos), cita o caso do banco de dados Labeled Faces in the Wild (LFW),</p><p>criado em 2007 com base em artigos de notícias online e rotulado por uma</p><p>equipe da UMass Amherst (Universidade de Massachusetts).29 Em 2014, Hu</p><p>Han e Anil Jain, pesquisadores da Universidade Estadual do Michigan,</p><p>notaram que nesse banco de dados mais de 77% das imagens eram de homens</p><p>e, desse conjunto, mais de 83% de homens de pele clara. O ex-presidente dos</p><p>Estados Unidos George W. Bush, dada sua visibilidade à época, tinha 530</p><p>imagens exclusivas, mais do que o dobro do conjunto de imagens de todas as</p><p>mulheres de pele escura combinadas. Cinco anos depois, e 12 da data de</p><p>constituição do LFW, seus gestores postaram um aviso de isenção de</p><p>responsabilidade, alertando que muitos grupos não estavam bem representados.</p><p>A agência governamental norte-americana O�ce of the Director of</p><p>National Intelligence – supervisora da implementação do Programa de</p><p>Inteligência Nacional, principal assessora do presidente, do Conselho de</p><p>Segurança Nacional e do Conselho de Segurança Interna para assuntos de</p><p>inteligência relacionados à segurança nacional – lançou em 2015 um banco de</p><p>dados de imagens faciais denominado IJB-A, supostamente contemplando a</p><p>diversidade da população norte-americana (etnia, gênero e raça). Entretanto,</p><p>estudo das pesquisadoras Timnit Gebru e Joy Buolamwini, protagonistas do</p><p>documentário da Net�ix Coded Bias, constatou que 75% eram imagens de</p><p>homens e, desse conjunto de dados, 80% de homens de pele clara, contra</p><p>apenas 4,4% de imagens de mulheres de pele escura.</p><p>O problema do viés nos resultados dos sistemas de inteligência arti�cial,</p><p>gradativamente, tem sensibilizado a sociedade. São múltiplas as origens do viés,</p><p>desde a geração dos dados até as escolhas dos desenvolvedores, com forte</p><p>contribuição de bases de dados tendenciosas. Nos últimos dois anos, por conta</p><p>das denúncias, várias bases de dados, antes disponibilizadas na internet, foram</p><p>suprimidas. Em junho de 2019, por exemplo, pesquisadores da Universidade</p><p>Duke retiraram seu conjunto de dados DukeMTMC, formado por imagens</p><p>coletadas de vídeos, principalmente de estudantes, gravados em um</p><p>cruzamento movimentado do campus durante 14 horas em um dia de 2014.</p><p>No período de três anos, esse banco de dados imperfeito foi utilizado por</p><p>dezenas de empresas e agências governamentais em projetos de reconhecimento</p><p>facial. Estudo recente da Universidade de Princeton constatou, inclusive, que</p><p>versões do DukeMTMC foram usadas e citadas centenas de vezes em</p><p>pesquisas, mesmo após ter sido “retirado do ar”.</p><p>No mesmo período, �cou inacessível o Diversity in Faces, base de dados de</p><p>mais de um milhão de imagens faciais coletadas da internet, disponibilizada no</p><p>início de 2019 por uma equipe de pesquisadores da IBM. “Ao todo, cerca de</p><p>uma dúzia de conjuntos de dados de IA desapareceram – limpos às pressas por</p><p>seus criadores depois que pesquisadores, ativistas e jornalistas expuseram uma</p><p>série de problemas com os dados e as formas como eram usados, desde</p><p>privacidade, preconceito racial e de gênero, até questões de direitos humanos”,</p><p>segundo John Mcquaid, jornalista dedicado aos problemas da disseminação</p><p>rápida e desregulada da inteligência arti�cial e vencedor do Prêmio Pulitzer.30</p><p>Com base em investigação junto a cientistas de inteligência arti�cial, o</p><p>jornalista Charles Q. Choi identi�cou algumas potenciais falhas desses</p><p>sistemas, entre outras, a fragilidade na interpretação de fotos: alterar um único</p><p>pixel em uma imagem pode fazer um sistema de reconhecimento de imagem</p><p>“pensar que um cavalo é um sapo”.31 Outras falhas apontadas por Choi: viés,</p><p>opacidade/“caixa-preta”, variável de incerteza intrínseca a modelos estatísticos</p><p>de probabilidade e ausência de senso comum, ou seja, a incapacidade dos</p><p>modelos de inteligência arti�cial de emitir conclusões lógicas com base em</p><p>experiências do cotidiano (supostamente, como os seres humanos).</p><p>A aposta é que os modelos de IA tomem decisões de forma mais imparcial e</p><p>mais transparente do que os seres humanos, mas, para essa aposta se</p><p>concretizar, ainda há um longo caminho a percorrer. Enquanto os cientistas de</p><p>inteligência arti�cial não descobrem como detectar e eliminar o viés dos</p><p>resultados desses modelos, cabe à sociedade evitar a discriminação</p><p>automatizada em massa e os imensos riscos aos seus usuários. Os sistemas de</p><p>IA, particularmente em setores sensíveis, como educação e saúde, devem ser</p><p>previamente auditados por agências reguladoras, com especial atenção às bases</p><p>de dados.</p><p>A</p><p>crescente adoção de tecnologias digitais (“transformação digital”) pelas</p><p>instituições, públicas e privadas, está transformando tarefas, empregos e</p><p>habilidades. Uma parcela não desprezível dos empregos recém-criados será,</p><p>na próxima década, em ocupações totalmente novas ou ocupações existentes</p><p>com inéditos conteúdos e requisitos de competências. Esse conjunto resultante</p><p>de pro�ssões emergentes re�ete a adoção de novas tecnologias e a crescente</p><p>demanda por novos produtos e serviços, impulsionadores de inéditos empregos</p><p>na Economia Verde, na vanguarda da Economia de Dados e IA, na Economia</p><p>do Cuidado, bem como novas funções na engenharia, na computação em</p><p>nuvem, em marketing/vendas e na produção de conteúdo.</p><p>A experiência da pandemia da covid-19 forçou as instituições a anteciparem</p><p>o “futuro do trabalho”, implementando tecnologias de automação</p><p>anteriormente associadas a projetos de longo prazo. A aceleração da</p><p>digitalização, consequentemente da automação, impacta o mercado de trabalho</p><p>em duas frentes: carência de mão de obra quali�cada e deslocamento de</p><p>trabalhadores.</p><p>Entre as medidas para mitigar as consequências negativas da automação</p><p>“inteligente”, baseada nas tecnologias de IA, são imperiosos os investimentos</p><p>em educação para quali�car e requali�car os trabalhadores, estando eles ou não</p><p>empregados. A educação pode evitar que parte signi�cativa da sociedade seja</p><p>desconectada dos benefícios gerados pelo avanço tecnológico.</p><p>A velocidade e o ritmo da transição serão in�uenciados pelas condições da</p><p>economia local, das políticas públicas e da capacidade de cada setor e</p><p>instituição em acompanhar as mudanças em curso na economia global. A</p><p>tendência é aumentar a desigualdade entre os países, entre as empresas,</p><p>particularmente entre as micro/pequenas empresas e as médias/grandes</p><p>empresas, e entre os indivíduos. O grau de desigualdade é proporcional ao</p><p>acesso a recursos pertinentes.</p><p>Este bloco tem seis artigos, e cada um deles aborda aspectos especí�cos dos</p><p>desa�os atuais para evitar a classe dos “inempregáveis” ou “inúteis”, como</p><p>designa Yuval Harari os cidadãos que não apenas serão desempregados, mas</p><p>também não serão empregáveis no futuro do trabalho.</p><p>Você está preparado para trabalhar no século XXI?</p><p>12.7.2019</p>
  • Screenshot_20240927_113832_UNIASSELVI Leo App
  • Alteridade, fronteira e traducao na experiencia de transfuga de classe de Annie Ernaux
  • A carta
  • A igreja do diabo
  • ARTIGO__FRANTZ_FANON_VIDA_E_OBRA[1] com sugetoes RITA_MARTINS (4)
  • Tudo e Rio - Carla Madeira 2
  • Texto 01 MOSE-Viviane A escola e os desafios contemporâneos - A escola e a fragmentação da vida
  • Poesia: Definições e Elementos
  • E-book de estratégias pedagógicas para alunos com dislexia
  • E-book de estratégias pedagógicas para alunos com TDA
  • Ensino Médio Avaliação Bimestral "Pela Ninfa, que jaz vertida en QUESTÃO 24 Apolo não delira?/Jove, mudad (UFSM 2012) A beleza da forma física femi...
  • 2. Com relação a manobra de Nelaton, marque a opção que contenha atra /- há a necessidade da região occipital estar apoiada Ill - realizar a manobr...
  • as mudanças de coordenadas são usadas para descrever a mesma posição ou pontp em um espaço utilizando diferentes sistemas de coordenadas. dado o po...
  • Reconhecidamente a técnica da digressão, que consiste em suspender a narrativa para tecer comentários paralelos, faz parte do estilo pessoal de Mac...
  • “A ação empreendedora é o ato de transformar a realidade existente em novos mercados, realizando trocas entre o empreendedor e seu ecossistema ao l...
  • George Lakoff e Mark Johnson são reconhecidamente pesquisadores consagrados nesta perspectiva em relação aos estudos da metáfora. Para eles, a metá...
  • I - A pesquisa realizada por Vargas (2015) em escolas de periferias urbanas de Porto Alegre (RS) atenta para o uso dos celulares por estudantes de ...
  • 9 ) Em O ano da morte de Ricardo Reis, José Saramago põe a dialogar dois personagens de inspiração poética - Fernando Pessoa e Ricardo Reis. No rom...
  • 1 ) A obra poética de José Craveirinha apresenta pelo menos três momentos: o primeiro no qual se encontra a influência do Neorrealismo, o segundo e...
  • escapulário, no pão de acúcar, de cada dia dai-nos senhor, a poesia de cada dia de oswald de andrade, nesse trecho em questãoquais temas estão pres...
  • É correto afirmar que o objetivo das escolas está relacionado à: Voltar
  • Durante o desenvolvimento pessoal e transformação organizacional, a superação de barreiras internas é crucial para o sucesso da mudança. Levando em...
  • Jack had ended up going to the movies by ______, after his mates had stood him up.
  • Aula 6 - Expressoes Matemáticas (Parte II)
  • Aula 2 - Formas de resolução de problemas

Conteúdos escolhidos para você

4 pág.

Grátis

psic_files (17)

UNOPAR

3 pág.

Grátis

Inteligência Artificial

UNAMA

13 pág.
ESTUDOS DISCIPLINARES V_ QUESTIONÁRIO UNIDADE I 6597-15 _

UNIP

9 pág.
ESTUDOS DISCIPLINARES X - QUESTIONÁRIO UNIDADE I

UNIP

5 pág.
INTELIGENCIA ARTIFICIAL AV1

ESTÁCIO EAD

Perguntas dessa disciplina

Grátis

Embora tenha contribuído para a evolução da Inteligência Artificial, descoberta do neurônio artificial não é recente. Não foram provados teoremas m...

Grátis

Assinale a alternativa que cita alguns dos principais aspectos que envolvem a gestão de estoques e o seu processo de evolução. A ) Tecnologia da in...

UNIFACVEST

pesquise e desenvolva um relatório, descrevendo os conceitos e aplicações da Inteligência Artificial, abaixo seguem alguns elementos que auxiliarão...

UNIASSELVI

8) Assinale a altemativa que cita alguns dos principais aspectos que envolvem a gestão de estoques e o seu processo de evolução. A ) Tecnologia das...

UNIFACVESTEAD

A Inteligência Artificial é um ramo de pesquisa da Ciência da Computação que busca, a partir de símbolos computacionais, construir mecanismos e/ou ...
Evolução da Inteligência Artificial - Literatura (2024)
Top Articles
Latest Posts
Recommended Articles
Article information

Author: Allyn Kozey

Last Updated:

Views: 6388

Rating: 4.2 / 5 (43 voted)

Reviews: 90% of readers found this page helpful

Author information

Name: Allyn Kozey

Birthday: 1993-12-21

Address: Suite 454 40343 Larson Union, Port Melia, TX 16164

Phone: +2456904400762

Job: Investor Administrator

Hobby: Sketching, Puzzles, Pet, Mountaineering, Skydiving, Dowsing, Sports

Introduction: My name is Allyn Kozey, I am a outstanding, colorful, adventurous, encouraging, zealous, tender, helpful person who loves writing and wants to share my knowledge and understanding with you.