ARTIFICIAL INTELLIGENCE IMPACT ASSESSMENT
Metodologia Daniel
Todos os negócios hoje são orientados por dados. Aplicações de inteligência artificial (IA) nos ajudam a compreender melhor cenários complexos, automatizam funções, encontram padrões, fazem predições e são parte importante nas tomadas de decisão corporativas. Mas você já pensou que esses algoritmos podem refletir vieses discriminatórios e levar à violação de direitos de negros, mulheres e LGBTQIA+, por exemplo? É nossa responsabilidade verificar se as IA que desenvolvemos ou simplesmente utilizamos são éticas e cumprem os requisitos legais de não discriminação e transparência exigidos pela legislação de proteção de dados.
Em todo o mundo, instituições de pesquisa e autoridades de proteção de dados trabalham no desenvolvimento de avaliações para detectar riscos de vieses discriminatórios em algoritmos: um instrumento que se chama Artificial Intelligence Impact Assessment (AIIA) / Relatório de Impacto de Inteligência Artificial (RIIA).
Neste Dia da Proteção de Dados, a Daniel Advogados lança este estudo com sua metodologia própria de Artificial Intelligence Impact Assessment a fim de auxiliar seus clientes a avaliar riscos corporativos sobre suas inteligências artificiais e, mais do que cumprir com a LGPD, contribuir positivamente com valores éticos. Nesse material você vai ver:
✔ Como utilizar aplicações de IA de forma ética e segura?
✔ Qual foi a base para o desenvolvimento do AIIA - Metodologia Daniel?
Preencha o formulário abaixo para receber o material
© 2021 | Daniel Law. All rights reserved.