08/04/2024 - tecnologia-e-inovacao

Eliza e Parry, os avós do Chat GPT

Por Melissa Bargman

Eliza e Parry, os avós do Chat GPT

Em 30 de novembro de 2022, o mundo foi revolucionado pelo lançamento de um novo sistema de IA: o famoso Chat GPT desenvolvido pela empresa americana Open IA. Em apenas 5 dias, chegou a atingir os 100 milhões de usuários.Não houve esfera humana que não estivesse envolvida nas controvérsias pelos riscos e oportunidades desta nova e poderosa tecnologia.

Em que posso ajudá-lo hoje?

As siglas do chat GPT significam Chat Generative Pre-Trained Transformer (Transformador Pre-entrenado Generativo). Para entender exatamente o que é, perguntamos diretamente ao sistema. Ele respondeu:

“O ChatGPT é um sistema de inteligência artificial. Usa a tecnologia de processamento da linguagem natural para compreender e gerar respostas em conversas escritas. Funciona através da aprendizagem automática e baseia-se numa arquitetura de rede neuronal chamada GPT (Generative Pre-trained Transformer), especificamente GPT-3.5 no meu caso. Este modelo pode manter conversas, responder perguntas, gerar texto coerente e realizar uma variedade de tarefas relacionadas à linguagem natural. ”

Para poder compreender esta definição, primeiro devemos entender os conceitos evocados e sobretudo, viajar no tempo para descobrir que o chat GPT não é mais do que uma versão prodígio de combinações de poderosos sistemas de processamento criados décadas atrás.

Os não-humanos que nos rodeiam

Para entender a base do Chat GPT, temos que saber que tecnicamente se trata de um Chatbot. Os bots de conversa ou bots conversacionais são programas de software que “Semulam manter uma conversa com uma pessoa e fornecer respostas automáticas às consultas realizadas pelos usuários”.Para conseguir esta comunicação artificial, existem técnicas padrão de programação que selecionam um conjunto limitado de respostas frente às preocupações (busqueda de palavras-chave) que recebem das pessoas. Simulam reações e frases de um interlocutor humano com o qual podem levar adiante uma conversa com certa lógica, a tal ponto que o usuário pode não distinguir se quem responde é uma máquina ou uma pessoa.Os assistentes inteligentes como Siri, Alexa, Google e os chats com os quais interagimos geralmente em serviços de suporte baseiam-se na aplicação do Processamento da Linguagem Natural, um campo das Ciências da Computação cujo objetivo é a formulação e pesquisa de mecanismos eficazes para a comunicação entre pessoas e máquinas através do uso da linguagem humana (abarcando cada vez mais idiomas).

Uma aventura pela mente humana

Como acontece com qualquer tecnologia inovadora, os domínios em que surgem ou se aplicam pela primeira vez resultam ser o da saúde ou, como a Internet nas suas origens, como armas ou ferramentas para cenários de guerra.A IA não é uma exceção e por isso não é acaso que os primeiros desenvolvimentos de chatbots estivessem relacionados à saúde e, sobretudo, à saúde mental.Se considerarmos que a Inteligência Artificial tem por objetivo desenvolver sistemas capazes de pensar e agir como humanos, então primeiro há que entender como pensa o ser humano, construir os processos cerebrais, quando funcionam em condições normais, mas também conhecer seus desvios e por que são gerados.

Eliza, a primeira Psicóloga portátil

Entre 1964 e 1966, Joseph Weizenbaum, professor de informática do Instituto Tecnológico de Massachusetts (MIT) desenvolve o que seria o primeiro chatbot da história chamado ELIZA. O projeto consistiu em desenvolver um sistema que simulasse ser uma psicoterapeuta rogeriana treinada para iniciar uma conversa lógica com uma pessoa através da análise de palavras-chave.Ao se tratar de um dos primeiros desenvolvimentos tecnológicos para os que não se precisava de conhecimento técnico na hora de testá-lo, qualquer pessoa poderia usá-lo. Por isso mesmo, em poucos meses Eliza se expandiu por diferentes instituições acadêmicas ao longo dos EUA e até chegou a se tornar um brinquedo em certos círculos de especialistas.Em seu livro “Computer Power and Human Reason: From Judgement to Calculation” de 1976, Weizenbaum resgata três pontos que em suas palavras o “shockearam” em sua análise da relação pessoa-máquina:
  • Muitos psiquiatras profissionais seriamente afirmaram que o programa poderia se tornar um especialista quase automático da saúde mental preparado para interagir com pacientes em um futuro próximo.
  • “Eu estava surpreso com o rápido e profundamente envolvidos emocionalmente se sentiam as pessoas ao conversar com o sistema e quanto unívocamente o antropomorfizavam”. O autor conta que sua própria secretária, que o tinha visto trabalhar incansavelmente no programa e sabia fehacientemente que se tratava meramente de um código informático, começou a conversar com Eliza. Depois de algumas sessões, a secretária pediu a Weizenbaum para abandonar a sala enquanto interagia com o sistema. Com efeito, as pessoas chegavam a confiar à máquina questões pessoais extremamente sensíveis.
  • Weizenbaum não conseguia entender como muitos acadêmicos consideraram que ELIZA havia resolvido o problema da interpretação da linguagem humana por parte das máquinas. Tudo o contrário: este sistema o que demonstrou foi que a comunicação sempre deve ser analisada e estudada em seu contexto e estrutura social de circulação.
Dessa forma, conseguir a comunicação entre máquinas e humanos é uma missão (quase) impossível porque existem tantas convenções sociais como pessoas na história. É por isso que se fala das “alucinações” de sistemas como o chat GPT.

Parry, a esquizofrenia elementar da IA

Outro projeto icónico de programação da IA foi desenvolvido pelo psiquiatra Kenneth Colby enquanto ainda estudava na Universidade de Stanford em 1972. Parry simulava um doente que sofria de um quadro de esquizofrenia paranóide.Num experimento para testar a sua eficácia, 33 psiquiatras profissionais foram convidados a dividir-se em dois grupos: alguns deram terapia a Parry ou outros a pacientes reais. Ambos os grupos foram solicitados a identificar em que casos se tratava de uma interação máquina-terapista e em quais se falava de paciente real-terapista. Os psiquiatras puderam identificar corretamente 48% das ocasiões.Conclusão: a IA em suas versões mais arcaicas foi capaz de enganar especialistas inteiramente dedicados à saúde mental.

Que a ilusão não se torne alucinação

Ninguém duvida que esses sistemas automáticos de interação tenham facilitado muitos processos que antes requeriam ler manuais, anotar em agendas, procurar no guia.No entanto, quando se trata da busca de informações sensíveis ou notícias, ou de produção de material próprio, sempre há que checar os dados, ir às fontes. Embora adquiram forma humana, tenham em muitos casos até personificações e nomes próprios que cumprimentam e sorrim, não são mais do que milhares de linhas de código que buscam palavras-chave e replicam comportamentos automáticos.Será a nossa natureza humana de nos relacionar o que faz com que nos encarinhamos com estes códigos... mas não entreguemos os nossos sentimentos a quem possa nos alucinar ou melhor, dito, nos enganar.

Deseja validar este artigo?

Ao validar, você está certificando que a informação publicada está correta, nos ajudando a combater a desinformação.

Validado por 0 usuários
Melissa Bargman

Melissa Bargman

Olá, sou Melissa, Comunicadora Social e Professora de Legislação Comparada na Faculdade de Ciências Sociais da Universidade de Buenos Aires. Dedico-me à pesquisa de novas tecnologias e sua aplicação na vida cotidiana, sua regulamentação, suas oportunidades e riscos na sociedade.

TwitterLinkedinInstagram

Visualizações: 0

Comentários