Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Empatia, ética, algoritmos e o futuro

Empatia, ética, algoritmos e o futuro

B6e0ee98a08a3863043dc3edc5789029?s=128

Carla Vieira

November 02, 2020
Tweet

Transcript

  1. Empatia, ética, algoritmos e o futuro Carla Vieira @carlaprvieira |

    contato@carlavieira.dev
  2. Engenheira de Software, mestranda em Inteligência Artificial e Google Developer

    Expert in Machine Learning. Co-organizadora da perifaCode. contato@carlavieira.dev | carlavieira.dev Carla Vieira
  3. None
  4. None
  5. Parte da filosofia responsável pela investigação dos princípios que motivam,

    distorcem, disciplinam ou orientam o comportamento humano, refletindo a respeito da essência das normas e valores presentes em qualquer realidade social. ética
  6. Fonte: SBC

  7. Fonte: ProPublica

  8. Fonte: ProPublica

  9. Se fosse você solicitado para você criar a funcionalidade que

    permite segmentar públicos de anúncios baseado na raça dos usuários e com potencial de, por exemplo, excluir pessoas negras dentro da rede: O que você faria?
  10. 1Entenda os piores cenários em que seu produto está inserido!

  11. 2Desenhe todos os tipos de personas, inclusive as antiéticas, racistas

    ou machistas
  12. None
  13. None
  14. None
  15. None
  16. 3Para entender como as tecnologias digitais passaram de instrumentos para

    disseminar a democracia a armas para atacá-la, é preciso olhar além das próprias tecnologias. Zeynep Tufekci
  17. None
  18. "Esta visão nos convida a examinar a prática científica para

    colocar as necessidades das populações marginalizadas no centro do processo de pesquisa e perguntar de onde vem o conhecimento - quem é incluído e deixado de fora, em cujo interesse está a ciência aplicada, quem é silenciado e quais suposições não reconhecidas podem estar em jogo". (McDowell e Chinchilla, 2016) decolonização
  19. None
  20. COMPAS Software e cálculo de reincidência: caso de racismo algorítmico

    (2016)
  21. COMPAS Software e cálculo de reincidência: caso de racismo algorítmico

    (2016)
  22. Algoritmos tendiam a classificar erroneamente homens como se fossem mulheres

    quando eles estavam na cozinha. (2018) Figura do resultado do algoritmo retirado do artigo: Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints
  23. RECRUTAMENTO CONCLUÍDO!

  24. Ferramenta de recrutamento da Amazon com AI discriminava candidatas mulheres

    (2018)
  25. Racismo algorítmico em modelos preditivos na saúde (2019)

  26. None
  27. Estudo Gender Shades (2018)

  28. 90,5% das pessoas presas por Reconhecimento Facial são negras (2019)

  29. Desenvolvedor cria ferramenta que reforça racismo algorítmico (2020) https://altdeep.substack.com/p/two-things-you-might-have-missed

  30. 3Reconhecer o papel da tecnologia das dinâmicas de poder que

    moldaram a sociedade (colonialismo, escravidão) é também encerrar projetos...
  31. Pausa em P&D de reconhecimento facial por Amazon, Microsoft e

    IBM (2020)
  32. MIT remove dataset por racismo e sexismo (2020) https://www.theregister.com/2020/07/01/mit_dataset_removed/

  33. 4"Quando acreditamos que tecnologia e IA são neutras, falhamos em

    perceber dados tendenciosos e criamos sistemas que automatizam o status quo e promovem os interesses dos poderosos." Pratyusha Kalluri (PhD Computer Science, Stanford)
  34. 4"O que é necessário é um campo que exponha e

    critique sistemas que concentram poder, enquanto criamos novos sistemas com comunidades impactadas: IA feita por pessoas e para as pessoas." Pratyusha Kalluri (PhD Computer Science, Stanford)
  35. 5O código que nós criamos afeta vidas reais

  36. “Ninguém teve a intenção de criar uma ferramenta racista”

  37. Preconceito humano Tecnologia

  38. Quem está desenvolvendo tecnologia? Fonte: The Global Gender Gap Report

    2020
  39. Pesquisa #QuemCodaBR (2019) Fonte: PretaLab e ThoughtWorks

  40. “Algoritmos são matemática. A matemática é neutra....”

  41. Existem decisões humanas que são delegadas em algoritmos. É o

    que se denominou mathwashing. É a desculpa de "não fui eu quem decidiu, o algoritmo decidiu". É uma maneira de fugir da responsabilidade. mathwashing Fred Benenson
  42. None
  43. None
  44. None
  45. Um dos principais argumentos do livro é que sofremos de

    "tecnochauvinism" ou a crença de que mais “tecnologia” é sempre a solução. tecnochauvinismo
  46. Algoritmos conseguem fazer análises subjetivas?

  47. O que determina se um algoritmo é justo quando o

    que está em jogo é uma sentença criminal?
  48. Compreender os limites dos algoritmos ajudará você a julgar seus

    julgamentos. Por sua própria definição, dados e algoritmos reduzem uma realidade complexa a uma visão mais simples do mundo. Apenas as partes do mundo que são facilmente mensuráveis podem ser usadas. Pense criticamente
  49. Nem tudo que tem valor pode ser medido e codificado

    e a ética é um exemplo. Quanto mais cedo as pessoas deixarem de tentar encontrar uma equação precisa para "justiça" e começarem a perguntar "por que estou construindo essa ferramenta em primeiro lugar?". Mais justa e atenciosa a sociedade se tornará. Abeba Birhane Cognitive science PhD student - University College Dublin
  50. Nós (profissionais de tecnologia) não somos ensinados que tecnologia é

    política!
  51. “Qualquer tecnologia que criamos reflete tanto nossas aspirações quanto nossas

    limitações. Se formos limitados na hora de pensar em inclusão, isso vai ser refletido e incorporado na tecnologia que criamos”. Joy Buolamwini
  52. Aos poucos, vamos hackeando as discriminações algorítmicas e construindo o

    futuro que queremos.
  53. Canal E AI, Carla? Nesse canal, eu falo tecnologia, Inteligência

    Artificial, livros, séries, política, discussões de raça e gênero — e a relação entre todos esses tópicos. youtube.com/eaicarla
  54. Carla Vieira youtube.com/eaicarla carlavieira.dev | @carlaprvieira (instagram/twitter) contato@carlavieira.dev

  55. Newsletter: Desvelar A newsletter da Desvelar envia, semanalmente, conteúdos, notícias,

    chamadas e indicações de pesquisadores sobre sociedade e tecnologia. https://tarciziosilva.com.br/blog/newsletter/
  56. Documentário: Coded Bias Em Coded Bias, quando a pesquisadora do

    MIT Media Lab, Joy Buolamwini, descobre que a maioria dos softwares de reconhecimento facial não identifica com precisão os rostos de pele mais escura e os rostos das mulheres, ela investiga uma investigação do viés generalizado dos algoritmos. Watch Coded Bias Online
  57. Race After Technology Ruha Benjamin O livro de Benjamin dialoga

    com essa ideia de novas formas de segregação que perpetuam o racismo. O conceito de “novo Jim Code” defende que cotidianamente estamos usando novas tecnologias que refletem e reproduzem desigualdades. Como no passado o racismo se manifestava de formas que parecem mais explícitas e como tecnologias são vistas como “neutras”, frequentemente ignoramos a influência da tecnologia em questões raciais.
  58. Weapons of Math Destruction Cathy O'Neil O'Neil usa o termo

    "arma de destruição matemática" para descrever as características dos piores tipos de modelos matemáticos. Ao longo do livro O'Neil comenta sobre uma variedade de sistemas e modelos matemáticos que impactam a vida de um grande número de pessoas enquanto elas tentam ir à faculdade, fazer empréstimos, são condenadas à prisão, e tentam encontrar ou manter um emprego.
  59. Comunidades, Algoritmos e Ativismos Digitais Tarcízio Silva O livro “Comunidades,

    Algoritmos e Ativismos Digitais: olhares afrodiaspóricos” busca combater uma lacuna na academia brasileira: reflexões sobre a relação entre raça, racismo, negritude e branquitude com as tecnologias digitais como algoritmos, mídias sociais e comunidades online.
  60. (Des)Inteligência Artificial Meredith Broussard Meredith Broussard argumenta que nosso entusiasmo

    coletivo para aplicar tecnologia em todos os aspectos da vida resultou em uma quantidade enorme de sistemas mal projetados. Com este livro, ela oferece um guia para compreender o funcionamento interno e os limites externos da tecnologia - e emite um aviso de que nunca devemos presumir que os computadores sempre acertam as coisas.