Se NÃO LO REGULAMOS O QUE É VAMOS A HACER?
Artigo escrito por Pedro Leon Cornet (Abogado U.N.T – Maestrando Direito e Economia UTDT – Head Legal LUCODS)
A Real Academia Espanhola define a IA (Inteligência Artificial) como uma disciplina científica que se ocupa de criar programas informáticos que executam operações comparáveis às que realiza a mente humana, como a aprendizagem ou raciocínio lógico. Apesar de não haver um consenso claro sobre os conceitos de IA (Inteligência Artificial) e IoT (Internet of Things ou Internet das Coisas) ou de seu alcance.O avanço e a inovação sempre geraram curto-circuito nos quadros regulatórios pré-estabelecidos. Neste ponto, acreditamos que existe uma forma de abordar esta problemática e implica conceber o direito à inovação, com o propósito de estabelecer soluções legais para as interrupções tangíveis causadas pelo avanço das novas tecnologias. Desse modo, entendemos as ferramentas legais como instrumentos ao serviço das mudanças emergentes.
Isto implica a necessidade de criar um quadro jurídico que se adapte à nova realidade gerada pelo surgimento de novas tecnologias e as complexidades que a sua implementação acarreta.
Viajemos no tempo, quando a lâmpada elétrica foi criada, pensemos na quantidade de negócios de vendas de velas que quebraram, os acidentes que foram gerados pela manipulação de eletricidade, as novas regulamentações em relação ao fornecimento de energia, somado à quantidade de pessoas que se terá oposto a tal mudança. É isso, motivo suficiente para a proibição da lâmpada elétrica? Não. Será necessário um quadro regulamentar para a electricidade? Sem dúvida.
Paralelamente ao desenvolvimento da tecnologia, o quadro regulatório do direito de danos foi evoluindo no sentido do que o progresso demandava. O cenário evolutivo do direito de danos passou de uma construção decimonônica cimentado em uma forte noção de culpa, para logo, em sintonia com a revolução industrial correr-se para uma ótica pregonada pelos fatores de corte objetivo. Esta evolução não foi caprichosa, mas veio a conferir certa segurança jurídica para permitir a marcação de uma forte distinção entre as consequências provocadas pela própria culpa do homem em um plano subjetivo à responsabilidade pelas coisas
danosas ou riscos de sua invenção.
Neste sentido, seguindo o ensaio recentemente publicado “Comparative law study on civil liability for artificial inteligence”, os sistemas jurídicos europeus tiveram variações e conformaram ópticas distintas na abordagem da responsabilidade civil, o que os levou a ter pequenas diferenças quanto à regulação dessas tecnologias. Pareciera que os sistemas escandinavos e romanos se inclinam a um corte mais objetivista ao tratar o tema. No entanto, a tradição germânica tem englobado parâmetros muito mais subjetivos centrado na conduta, o que permite ampliar o marco de atribuição de responsabilidade a novos objetos
capazes de implantar ações.
A Europa aproxima-se da unanimidade quanto à atribuição de responsabilidade objectiva, mas dentro das nuances jurisdicionais, é relevante ver as divergências e diferenças, especialmente em países como a Alemanha, a República Checa, a Croácia, a Dinamarca e a Polónia, onde os principais factores de atribuição da responsabilidade giram em torno do factor subjetivo nascido da culpa.
O direito argentino e a doutrina é conteste a respeito do tipo de atribuição de responsabilidade provocadas por essas tecnologias, uma responsabilidade, sem dúvida, de tipo objetiva.
Quanto à regulamentação e localização no quadro regulatório o direito argentino subsumido à responsabilidade surgida da aplicação de IA e IoT sob o previsto no articulado que vai de 1756 a 1759 CCyC e 1769 do CCyC. Articulado que se desagrega em dois tipos de responsabilidade, por um lado, a responsabilidade pelo fato alheio -responsabilidade pelos filhos - e pelo outro a responsabilidade pelo dano causado por animais.
Quanto à autonomia de uma máquina é difícil medir qual é a percepção do ambiente e do risco que possui.
É uma máquina igual que um filho ou um animal?
Recentemente, em Relatório das Nações Unidas (“Letter dated 8 March 2021 from the Panel of Experts on Libya Established pursuant to Resolution 1973 (2011) addressed to the President of the Security Council”) Foi alertado para o primeiro ataque de drones autónomos concebidos para operar e guardar territórios a partir de intervenções realizadas pela Turquia na Líbia, na Síria e no Cáucaso.A arma usada pelo STM Kargu 2, é um dron capaz de levar operacionais tipo enxame e explica a empresa “pode ser utilizada eficazmente contra alvos estáticos ou em movimento graças às suas capacidades de processamento de imagens em tempo real e aos algoritmos de aprendizagem automática integrados na plataforma”. Provistos de câmeras de vídeo eletroópticas e infravermelhos e um sistema de imagens laser (LIDAR) que lhes permitem operar de forma totalmente autônoma.
Graças à aprendizagem automática, os aparelhos podem ser ensinados a detectar e interpretar movimentos de tropas ou unidades militares como tanques.
Esses sistemas autônomos foram concebidos para atacar objetivos sem exigir autorização entre um operador e munições, sua forma de operar completamente autônoma gera que a mesma implantação um comportamento com base na sua própria percepção do ambiente.
E quem responde por estes ataques? A empresa argumenta que ela só cria a tecnologia que outro utiliza, transferindo a responsabilidade a quem pôs em marcha o sistema já criado.
Quem comprou o objeto para usá-lo arguye que esta inteligência observa, analisa e atua com base nas suas próprias considerações. Poderíamos adicionar um terceiro responsável, que configura a máquina para dirigir esses ataques, mas a verdade é que vimos que uma vez superado o chamado ‘training set’ essas inteligências escapam do controle humano e começam a fazer avaliações próprias devido à sua capacidade para gerar julgamentos próprios segundo sua própria experiência.
Pergunto-me, será suficiente resolver esta problemática com os enunciados do 1756 a 1759 CCyC e o 1769 do CCyC? Estamos nos ficando curtos com a atribuição de responsabilidade? Teremos direito à inovação e criaremos institutos específicos?
Comentários