A caixa preta da Inteligência Artificial

A caixa preta da Inteligência Artificial

Os algoritmos de Inteligência Artificial trazem possibilidades de otimização do trabalho e personalização de experiência, mas também trazem riscos e desafios que precisam ser conhecidos e considerados antes de sua adoção. Os algoritmos que nos avaliam, deveriam sujeitar-se aos critérios de avaliação justa que buscamos. Mas isso não é bem o que acontece, seja porque consideramos que eles são mais precisos do que realmente são, seja porque permitimos que sigam nos julgando obscuramente. É fundamental questionar, assim, se é esse o objetivo que esperamos encontrar nas inovações. Devemos automatizar pela simples automação? Ou cabe aqui uma reflexão ética sobre injustiças algorítmicas?

B6e0ee98a08a3863043dc3edc5789029?s=128

Carla Vieira

August 04, 2019
Tweet

Transcript

  1. A caixa preta da Inteligência Artificial Carla Vieira @carlaprvieira Ilustração:

    Hanne Mostard GOIÁS
  2. Developer, Speaker and Artificial Intelligence Evangelist @carlaprvieira Carla Vieira FORMAÇÃO

    ENSINO TRABALHO Graduanda de Sistemas de Informação pela USP Aluna Especial pela USP Mestrado (em breve) Professora de Desenvolvimento Web na Habits Professora de introdução a IA e ML Desenvolvedora Coordenadora Perifacode
  3. None
  4. None
  5. None
  6. https://www.slideshare.net/DataStax/netflix-recommendations-using-spark-cassandra

  7. None
  8. None
  9. None
  10. None
  11. None
  12. viés dados privacidade legislação ética

  13. None
  14. Precisamos falar menos sobre o hype da Inteligência Artificial… …

    e mais sobre como estamos usando a tecnologia.
  15. Google Photos (2015)

  16. Google Photos (2015)

  17. Twitter (2017)

  18. Como estou combatendo o viés algorítmico TED (2018) Joy Buolamwini

  19. Estudo Gender Shades (2018)

  20. Estudo Gender Shades (2018) http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf

  21. “Qualquer tecnologia que criamos reflete tanto nossas aspirações quanto nossas

    limitações. Se formos limitados na hora de pensar em inclusão, isso vai ser refletido e incorporado na tecnologia que criamos”. Joy Buolamwini
  22. Google Detecção de discurso de ódio (2019)

  23. • 46% de falsos positivos para afro-americanos • 1.5 mais

    chances das postagens serem rotuladas como ofensivas https://homes.cs.washington.edu/~msap/pdfs/sap2019risk.pdf
  24. COMPAS Software (2016)

  25. COMPAS Software (2016) Algoritmos não conseguem fazer análises subjetivas O

    que determina se um algoritmo é justo quando o que está em jogo é uma sentença criminal?
  26. COMPAS Software (2016) Algoritmos não conseguem fazer análises subjetivas O

    que determina se um algoritmo é justo quando o que está em jogo é uma sentença criminal?
  27. JUSTIÇA MATEMÁTICA

  28. Preconceito humano Tecnologia Como remover o viés?

  29. Quem está desenvolvendo Inteligência Artificial? “Only 22% of AI professionals

    globally are female, compared to 78% who are male.” (The Global Gender Gap Report 2018 - p.28)
  30. Preconceito humano Tecnologia DIVERSIDADE

  31. A inteligência artificial precisa aprender com o mundo real. Não

    basta criar um computador inteligente, é preciso ensinar a ele as coisas certas. https://about.google/stories/gender-balance-diversity-important-to- machine-learning/?hl=pt-BR
  32. https://www.research.ibm.com/artificial-intelligence/trusted-ai/diversity-in-faces/

  33. Estes casos ilustram um problema maior: os algoritmos de I.A.

    são uma caixa-preta, opaca e cheia de segredos.
  34. None
  35. None
  36. None
  37. CAIXA PRETA INPUT OUTPUT

  38. CAIXA PRETA INPUT OUTPUT

  39. viés dados privacidade legislação ética Por que abrir a caixa

    preta?
  40. França (2019)

  41. "Esse tipo de lei é uma desgraça para uma democracia.

    A Justiça é usada em nome do povo, tentar esconder informações de agentes da lei ou de cidadãos nunca será a coisa certa a fazer.” Louis Larret Chahine Co-fondateur de PREDICTICE
  42. Estados Unidos (2019)

  43. Brasil (2019)

  44. “ (...) diferentemente do que foi apontado, não realiza reconhecimento

    facial, mas, sim, detecção facial, por meio do qual estima apenas o gênero, a faixa etária e o humor dos consumidores, de forma anônima". Gerente de Marca Hering
  45. Como abrir a caixa preta? TRANSPARÊNCIA EXPLICABILIDADE Entender a lógica

    por trás de cada decisão CONFIANÇA
  46. explicabilidade Refere-se à capacidade do sistema de explicar porque chegou

    a determinado resultado em linguagem compreensível para um ser humano.
  47. Dados explicáveis Predições explicáveis Algoritmos explicáveis Quais os dados utilizados

    para treinar o modelo e por quê? Quais as características e pesos utilizados para essa predição? Quais são as camadas e processos internos desse algoritmo?
  48. None
  49. None
  50. As soluções de Inteligência Artificial não são e não serão

    infalíveis. Mas, a explicabilidade pode ajudar...
  51. “O sucesso na criação da IA será o maior acontecimento

    na história da humanidade. Infelizmente, também poderá ser o último, a menos que aprendamos como evitar os riscos.” Stephen Hawking
  52. None
  53. None
  54. None
  55. None
  56. None
  57. http://www.portaltransparencia.gov.br/download-de-dados

  58. Acessibilidade de dados Explicabilidade dos algoritmos Diversidade nos talentos Desafios

  59. https://brasil.io/home https://serenata.ai/ https://colaboradados.github.io/

  60. Se a tecnologia quiser ajudar na construção de uma sociedade

    mais justa, ela tem que ser aberta e transparente.
  61. Antes de falar sobre futuro... ... precisamos falar sobre o

    que está acontecendo hoje, agora.
  62. Obrigada! Carla Vieira @carlaprvieira carlaprv@hotmail.com bit.ly/goias-carla

  63. Referências − Relatórios do AI NOW − Racial and Gender

    viés in Amazon Rekognition − Diversity in faces (IBM) − Google video – Machine Learning and Human viés − Visão Computacional e Vieses Racializados − Estudo Machine viés on Compas − Machine Learning Explainability Kaggle − Predictive modeling: striking a balance between accuracy and interpretability
  64. Referências −Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em

    código −Metrics for Explainable AI: Challenges and Prospects −The Mythos of Model Interpretability −Towards Robust Interpretability with Self-Explaining Neural Networks −The How of Explainable AI: Post-modelling Explainability