Upgrade to Pro — share decks privately, control downloads, hide ads and more …

O uso ético da IA

81ec90c2bc2976a1ddb6abb52051524d?s=47 Alan R. Fachini
September 28, 2019

O uso ético da IA

Uma discussão realizada durante o simpósio de inovação em saúde Hackvision promovido em Joinville.

81ec90c2bc2976a1ddb6abb52051524d?s=128

Alan R. Fachini

September 28, 2019
Tweet

Transcript

  1. O USO ÉTICO DA INTELIGÊNCIA ARTIFICIAL

  2. Founder @ Magrathea Labs MSc Computer Engineering @ USP Professor

    @ Católica Santa Catarina ALAN R. FACHINI
  3. O que é Inteligência Artificial?

  4. Alan Turing

  5. None
  6. None
  7. Como funciona?

  8. www.google.com/intl/en/about/main/machine-learning-qa

  9. www.grandviewresearch.com/industry-analysis/cognitive-computing-market Estamos em hype

  10. Mudança

  11. O que aconteceu?

  12. None
  13. O problema humano.

  14. Milhões de chineses agora têm acesso a serviços financeiros.

  15. A obediencia ao estado foi gameficada. sesame chinese score

  16. Algoritmos colaboram com a justiça no julgamento de casos .

  17. https://www.propublica.org/article/machine-bias-risk-assessments- in-criminal-sentencing O erro humano foi automatizado.

  18. O problema tecnológico. Parameter identification problem

  19. O problema humano.

  20. O problema humano. Computadores podem fazer

  21. O que podemos fazer.

  22. The moral is that if you really do remove all

    possible identification information from a database, you will probably be left with nothing useful — Ian Witten, Data Mining
  23. Praticamentes Academia Setor Privado Estado Quem está discutindo?

  24. • Sistemas devem ser projetados de acordo com as melhores

    práticas de design Centrado no Usuário • Devem ser transparentes • Estar em conformidade com os principais padrões de reprodutibilidade • Identificar e tomar medidas para lidar com vieses e evitar a introdução ou exacerbação de disparidades no atendimento de saúde • Proteger os interesses de privacidade dos pacientes e preservar a segurança e a integridade das informações pessoais American Medical Association policy H-480.940
  25. • Órgãos públicos centrais, como os responsáveis pela justiça criminal,

    saúde, bem-estar e educação, não devem usar algoritmos de "caixa preta” • As empresas devem executar testes rigorosos para garantir que não amplificarão vieses e erros devido a problemas com os dados de treinamento, algoritmos ou outros elementos do design do sistema • As empresas devem continuar a monitorar seu uso em diferentes contextos e comunidades • É necessário mais pesquisa e formulação de políticas sobre o uso de sistemas de IA • Desenvolver padrões para rastrear a proveniência, o desenvolvimento e o uso de conjuntos de dados de treinamento ao longo de seu ciclo de vida AI NOW Institute
  26. • Direitos Humanos: garantir que eles não infrinjam os direitos

    humanos internacionalmente reconhecidos • Bem-estar: priorizar métricas de bem-estar em seu design e uso • Responsabilidade: garantir que seus projetistas e operadores sejam responsáveis e responsáveis • Transparência: garantir que operem de maneira transparente • Conscientização sobre o uso indevido: minimizar os riscos de seu uso indevido • Estar disponível para usos que estejam de acordo com esses princípios IEEE
  27. • Seja socialmente benéfico • Evite criar ou reforçar preconceitos

    injustos • Seja construído e testado para segurança • Seja responsável perante as pessoas • Incorporar princípios de design de privacidade • Defender altos padrões de excelência científica • Estar disponível para usos que estejam de acordo com esses princípios Empresas (Google)
  28. • Inteligência artificial deve ser desenvolvida para o bem comum

    e benefício da humanidade • A Inteligência Artificial deve operar em princípios de inteligibilidade e justiça • A Inteligência Artificial não deve ser usada para diminuir os direitos de dados ou a privacidade de indivíduos, famílias ou comunidades • Todos os cidadãos têm o direito de ser educados para que possam florescer mentalmente, emocionalmente e economicamente, juntamente com a inteligência artificial • O poder autônomo de ferir, destruir ou enganar seres humanos nunca deve ser investido em inteligência artificial Estados (UK House of Lords)
  29. Preocupações gerais

  30. IEEE ethicsinaction https://ethicsinaction.ieee.org

  31. None
  32. None
  33. Nós precisamos de máquinas que raciocinam como nós?