Projetos de Pesquisa

 

Foto de perfil

Mônia Clarissa Hennig Leal

Ciências Sociais Aplicadas

Direito
  • “teoria da essencialidade” (wesentlichkeitstheorie) e discriminação algorítmica: standards protetivos em face do supremo tribunal federal e da corte idh – proposta de parâmetros de controle e de proteção para grupos vulneráveis e minorias
  • O uso das novas tecnologias traz necessidade de qualificação da proteção dos direitos humanos e fundamentais, notadamente o uso da “inteligência artificial” (AI) e de algoritmos. Ocorre que a LGPD, apesar prever o tratamento de dados sensíveis, não prevê mecanismos voltados à discriminação algorítmica, i.e., quanto ao uso dos big data, obtidos a partir do comportamento e do perfil dos usuários nas redes sociais, bem como dos dados gerados a partir do uso da “internet das coisas” (IoT) – dados utilizados por algoritmos e criação de perfis de usuários, com alta potencialidade discriminatória (especialmente no que concerne a “grupos vulneráveis” e “minorias”, vítimas de discriminação estrutural). Tampouco o PL 21/2020, que regula o uso da IA, traz dispositivo específico voltado a esses grupos, prevendo genericamente o princípio da igualdade. Questiona-se: “em face da ausência de disposição expressa da LGPD e do PL 21/2020, e tomando-se como referência a “teoria da essencialidade”, qual a posição do STF quanto à necessidade de regulação legislativa de matérias relativas a direitos fundamentais e quais os standards interpretativos estabelecidos pela Corte IDH e pelo STF na proteção do direito de igualdade e de não-discriminação em relação aos “grupos vulneráveis” e “minorias”, vítimas de discriminação estrutural? O método de abordagem é o hermenêutico. O método de procedimento é o histórico-crítico (atuação dos Tribunais Constitucionais) e analítico (a) “teoria da essencialidade” e sua aplicação pelo STF quanto à necessidade ou não de regulação legislativa dos direitos fundamentais no âmbito virtual, com enfoque na discriminação algorítmica; b) análise das decisões do STF e da Corte IDH). Pretende-se propor parâmetros mais exigentes de regulação e de controle dos algoritmos de IA relacionados a grupos vulneráveis e minorias, que possam resultar em discriminação algorítmica.
  • Universidade de Santa Cruz do Sul - RS - Brasil
  • 05/12/2023-31/12/2026