RELATÓRIO DE IMPACTO DE

INTELIGÊNCIA ARTIFICIAL

ARTIFICIAL INTELLIGENCE IMPACT ASSESSMENT

Metodologia Daniel

ACESSE NOSSO MATERIAL

Todos os negócios hoje são orientados por dados. Aplicações de inteligência artificial (IA) nos ajudam a compreender melhor cenários complexos, automatizam funções, encontram padrões, fazem predições e são parte importante nas tomadas de decisão corporativas. Mas você já pensou que esses algoritmos podem refletir vieses discriminatórios e levar à violação de direitos de negros, mulheres e LGBTQIA+, por exemplo? É nossa responsabilidade verificar se as IA que desenvolvemos ou simplesmente utilizamos são éticas e cumprem os requisitos legais de não discriminação e transparência exigidos pela legislação de proteção de dados.


Em todo o mundo, instituições de pesquisa e autoridades de proteção de dados trabalham no desenvolvimento de avaliações para detectar riscos de vieses discriminatórios em algoritmos: um instrumento que se chama Artificial Intelligence Impact Assessment (AIIA) / Relatório de Impacto de Inteligência Artificial (RIIA).

Neste Dia da Proteção de Dados, a Daniel Advogados lança este estudo com sua metodologia própria de Artificial Intelligence Impact Assessment a fim de auxiliar seus clientes a avaliar riscos corporativos sobre suas inteligências artificiais e, mais do que cumprir com a LGPD, contribuir positivamente com valores éticos. Nesse material você vai ver:

Como utilizar aplicações de IA de forma ética e segura? 

✔ Qual foi a base para o desenvolvimento do AIIA - Metodologia Daniel?

Preencha o formulário abaixo para receber o material

Ao preencher o formulário, você está ciente que a Daniel poderá enviar, de tempos em tempos, comunicações e conteúdos de acordo com os seus interesses. Você pode modificar as suas permissões a qualquer tempo. Para mais informações sobre alterações de preferências e nossas práticas para respeitar a sua privacidade, confira a nossa Política de Privacidade.

© 2021 | Daniel Law. All rights reserved.