top of page
Buscar
Foto do escritorNotícias

Brasil avança para regular uso de inteligência artificial

O governo avança para regular o uso de inteligência artificial no Brasil. O MCTIC (Ministério de Ciência, Tecnologia, Informações e Comunicações) abriu na quinta-feira (12) consulta pública para definir a chamada Estratégia Nacional de IA (Inteligência Artificial).

O plano é debater formas de potencializar os benefícios da tecnologia e mitigar seus impactos negativos.

A medida vem depois de o país aderir, em maio, às recomendações da OCDE, que criou diretrizes para que governos adotem sistemas que respeitem “direitos humanos e valores democráticos”.


O governo abriu ao público, até o fim de janeiro, a discussão sobre legislação e uso ético da tecnologia, considerando eixos como força de trabalho, pesquisa e desenvolvimento e aplicação nos setores público e privado.

Seguindo o modelo de outros países que adotaram estratégias, o governo põe isso em pauta depois de aprovar o Plano Nacional de Internet das Coisas e a Lei Geral de Proteção de Dados (em vigor no ano que vem), que mencionam sistemas automatizados.

“Essas estratégias devem guiar o Estado sobre a formação de política pública, não dizem respeito só à regulação, mas aos incentivos e financiamentos para capacitação de pessoas que vão precisar se posicionar neste mercado”, diz Bruno Bioni, fundador e professor do Data Privacy Brasil.



A consulta questiona, por exemplo, que políticas seriam necessárias para a requalificação de profissionais de setores afetados por IA e qual seria o papel do governo nesse sentido.

Do ponto de vista de governança, levanta a possibilidade de obrigatoriedade de relatórios prévios de avaliação de impacto contra discriminação (racial, de gênero ou econômica, por exemplo) em processos que incluam tomada de decisões por máquinas.

A Califórnia, que regulou a tecnologia de reconhecimento facial (ela usa sistemas inteligentes), determinou que órgãos públicos façam relatórios prévios de proteção de dados antes de lançar uma tecnologia. Os documentos precisam ser avaliados por um comitê que autoriza a funcionalidade.


Já o Canadá, que tem uma declaração para a proteção de direitos no uso de sistemas de aprendizado, determina medidas como a disponibilização clara e acessível de informações sobre sistemas públicos que usam aprendizado de máquina para decisões.

Também defende relatórios que mitiguem discriminação e possibilidade de supervisão independente com sistemas auditáveis. O documento canadense pede que se evite o uso de "sistemas de caixa preta" que não podem ser submetidos a padrões de responsabilidade e transparência.


6 visualizações0 comentário

Posts recentes

Ver tudo

Comentarios


bottom of page