Ícone do site Biblioteconomia Digital

Reações e alucinações no uso do ChatGPT na visão de um bibliotecário

2024

IA e Infomação

A era da geração de informação por meio de IA trouxe consigo diversos avanços para alguns temerosos, para outros revolucionários, entre os quais o uso de IA generativa e em particular o ChatGPT é o destaque aqui. 

Profissões e profissionais passaram a usar e opinar sobre seus benefícios e diferentes objeções em relação sempre buscando ou se beneficiar e relatar experiências dignas de um evento em Congresso, seja preso a fatores como regulação, éticos e direitos autorais. 

Sabemos que esta exploração, embora promissora, não está isenta de desafios e controvérsias, especialmente quando se trata de entender e contextualizar as capacidades e limitações da IA em ambientes informacionais e uma profissão em especial: a dos bibliotecários.

Com o crescente uso de sistemas baseados em IA, como o ChatGPT, surgem questionamentos pertinentes sobre a precisão, confiabilidade e ética na geração e manipulação da informação. Tudo sobre o viés de impressões e o próprio uso do nosso GPT! 

Se para alguns profissionais, existe a capacidade inovadora do ChatGPT de processar e sintetizar grandes quantidades de dados, oferecendo suporte em tarefas como catalogação, pesquisa e até mesmo na criação de conteúdo. 

Para outros, existe a necessidade de combater e enfrentar algumas situaões. É destaque que se enfatize, um fenômeno em particular: as “alucinações” da IA! 

“O gpt não funciona bem para catalogação, para estudos, para concursos e por ai vai! 

Sim! O sistema pode gerar respostas imprecisas ou factualmente incorretas, que devem levantar preocupações sobre a sua aplicabilidade prática e confiabilidade.

É preciso contudo, algumas coisas para ambos os lados! 

Duas delas são sobre essa dualidade em que o ChatGPT pode ser uma ferramenta valiosa para bibliotecários, ao mesmo tempo em que aborda os desafios e as implicações éticas do seu uso. 

Afinal, equilibrar senso comum, ciência, inovação tecnológica, sempre buscando a  e a integridade da informação, são elementos fundamentais da profissão bibliotecária.  

precisãox limites-chat-gpt (1)

Precisão e limites entre prompts e respostas a partir de dados 

Ao tentar obter respostas sobre processos técnicos ou tarefas aparentemente simples como, gerar um registro marc, elaborar uma ficha catalográfica, consultar títulos e apresentar números de ISBN ou vice versa, fazer recomendações de leitura ou quiçá, gerar um xml válido: tudo isso usando o ChatGPT, é preciso lembrar que existem diferenças entre versões pagas ou gratuitas e que ao não pagar, isso implica em algumas das primordiais limitações da maioria dos atuais dos modelos de linguagem: plugins, análise de dados, customizações, número de tojens de entrada e saída e por ai vai!  

Outro fator importante é que estes modelos conversacionais, embora treinados com vastos conjuntos de dados, incluindo textos de livros, artigos, sites, entre outros, não acessam bancos de dados externos em tempo real, (a menos que os 20 dólares mensais sejam pagos. 

Isso significa que, para tarefas como identificar o autor correto de um livro pelo ISBN em tempo real, dependeria exclusivamente do que foi aprendido durante o treinamento. 

Quem não paga para esse acesso pro – para quem já não o faz com algumas extensões do chrome que dão um plus adicional na versão free, não tem esse acesso em tempo real à intenet. 

Você precisariade necessariamente de plugins específicos e sobretudo um prompt com exemplos, contexto e toda uma estrutura com parâmetros que permitem sim, gerar uma ficha com sucesso, catalogar corretamente um título e obviamente, criar um registro marc21 válido! 

Entendam a coisa mais importante dessa publicação: a precisão das respostas do ChatGPT depende muito da clareza e especificidade das perguntas feitas. 

Não pensem que perguntas diretas com frases interrogativas de uma linha trarão registros, fichas, identificadores a partir dos dados de um GPT 3.5 gratuito. Não criem relatos de cases usando perguntas interrogativas diretas de uma linha achando que isso será suficiente para classificar um livro a partir de um assunto pontual. 

Frases simples ou perguntas vagas tendem a levar a respostas menos precisas ainda.

Isso é particularmente verdadeiro em questões complexas, como a indexação, catalogação ou a criaçã de um registro, mencionados aqui, que requerem informações muito mais detalhadas e específicas, somada a parâmetros e elementos de descrição da instrução. 

Por fim, a IA pode fornecer uma base para qualquer trabalho técnico ou não: como criar conteúdos para redes sociais, estudar usuários e até ser assistente virtual que tira dúvidas sobre produtos e serviços, mas a intervenção humana ainda é necessária para garantir a precisão e adequação dos dados, sobretudo quando é necessário no mínimo alguns princípios recomendados pela própria OpenAI para elaboração de instruções.  

Alucinação em Inteligência Artificial e as muitas interpretações

O termo “alucinar” foi eleito em novembro como palavra do ano pelo dicionário Cambridge. 

No contexto da IA, refere-se a situações em que o modelo gera informações falsas, imprecisas ou sem lógica. 

Isso geralmente ocorre devido a limitações nas fontes de dados usadas para treinar a IA, prompts que possibilitem uma interpretação errônea ou ambígua das entradas fornecidas ao sistema e claro, a questão de usar uma versão gratuita que não permite instalar plugins, analisar dados complexos e estender o número de tokeens de entrada e de saída a partir de uma instrução mais elaborada.

Os modelos de IA, como o ChatGPT, não “inventam” informações com intenção ou consciência. Eles respondem com base em padrões e associações aprendidas durante o treinamento. 

Se a IA produz uma informação falsa, não é porque está deliberadamente “inventando”, mas porque está replicando padrões de dados que foram apresentados, o que pode incluir imprecisões presentes em pedidos e nos próprios dados de treinamento.

O fato é que o conceito de “alucinar” em sistemas de Inteligência Artificial (IA) como o ChatGPT gerou um espectro variado de reações entre profissionais, pesquisadores e alguns dos usuários que temem o uso da IA. Estas reações refletem diferentes níveis de compreensão, confiança ou habilidade nese o uso: 

Ceticismo e rejeição

Uma parte significativa de usuários e profissionais, especialmente aqueles que priorizam a precisão absoluta da informação, são críticos e eventualmente temem serem substituídos pela IA, mostram ceticismo ou até mesmo rejeição por n fatores! Já fizemos um conteúdo sobre com mais de 50 razões que passam por mitos, medos e receios quando o assunto é rejeição de uma IA. 

A maioria deles, argumentam que, devido ao risco de “alucinações”, ou seja, a geração de informações imprecisas ou falsas, a IA não pode ser confiável. 

Este grupo tende a evitar o uso de IA em suas práticas profissionais ou acadêmicas, preocupados com a integridade e a veracidade das informações. Falam frequentemente sobre direito autoral, regulação, temem por uma substituição imediata e acabam por não ter aproximações com estudos e pesquisas acerca do tema. 

 

Uso com verificação

Outro grupo, que reconhece tanto as limitações quanto as potencialidades da IA, opta por utilizá-la como uma ferramenta auxiliar. 

Eles entendem que, embora a IA possa ser uma poderosa aliada na análise e síntese de grandes volumes de dados, suas respostas precisam ser validadas por meio de verificações cruzadas com fontes confiáveis. Este grupo vê a IA como um ponto de partida ou um complemento ao trabalho humano, mas não como uma autoridade final.

 

Uso estratégico e consciente

Existe também um grupo que defende o uso estratégico da IA, focando na importância da formulação de prompts bem elaborados. Eles argumentam que muitas das “alucinações” da IA podem ser mitigadas ou até evitadas com perguntas claras, específicas e contextualmente apropriadas. Este grupo tende a ter uma compreensão mais aprofundada de como os modelos de IA funcionam e, portanto, são mais hábeis em extrair informações precisas e úteis.

 

Defensores da uso contínuo com mediação humana 

Alguns usuários e especialistas veem as “alucinações” da IA como parte natural de seu desenvolvimento e evolução. Eles reconhecem que, assim como qualquer tecnologia emergente, a IA tem suas imperfeições, mas acreditam que o feedback contínuo e o uso prático podem conduzir a melhorias significativas. Este grupo costuma advogar pela colaboração entre desenvolvedores de IA e seus usuários, visando aprimorar a tecnologia para aplicações cada vez mais precisas e confiáveis.

 

Benefícios versus desafios no uso do ChatGPT

A popularidade e o uso crescente do ChatGPT sugerem que seus benefícios superam as chamadas “alucinações” ou limitações. Em 2023, a ampla adoção da ferramenta reflete seu valor prático em diversas aplicações. Seus benefícios incluem a capacidade de processar e sintetizar grandes volumes de informação, gerar conteúdo criativo, auxiliar na aprendizagem e pesquisa, e realizar tarefas de automação de linguagem.

No entanto, é crucial reconhecer e abordar seus desafios. 

Lembrar que a qualidade das respostas depende do treinamento e das fontes de dados. 

O contexto e a capacidade de discernir nuances complexas ainda são limitados se o prompt também for! 

Essas questões destacam a importância de dominar certas competências e aprender sobre o uso da IA. 

Usuários e pesquisadores precisam estar cientes de que existem limitações e a utilização deve ser feita como uma ferramenta auxiliar e não como uma fonte 100% confiável e infalível, sobretudo de dados factuais e das tais perguntas diretas com o intúito de produzir as tais alucinações. 

Resumindo…

Resumindo, o ChatGPT e seus colegas da IA generativa conversacional, oferecem possibilidades significativas, mas é essencial usá-las com compreensão de suas limitações, em conjunto com o julgamento humano que sempre virá para quem não cria instruções bem fundamentadas e não faz qualquer verificação adicional das respostas geradas.

Acerca das reações e o conceito de alucinação, representam diferentes níveis de confiança, compreensão e habilidade no manuseio da própria Inteligência Artificial. 

Enquanto alguns se afastam devido às preocupações com a precisão, outros buscam formas de integrá-la em suas práticas, aproveitando seus benefícios e contornando suas limitações. 

A chave parece residir na compreensão de que a IA, no estágio atual, é uma ferramenta e não um substituto para o julgamento humano. 

Reconhecer e respeitar as capacidades e limites da IA é crucial para seu uso efetivo, com a ética e com as regulações que já começaram na Eutopa e logo logo chegam em legislações brasileiras independentemente da sua perspectiva ser x ou y.

Entao, ao refletirmos sobre o impacto da Inteligência Artificial na sua vida, especialmente no que diz respeito ao fenômeno das “alucinações” da IA e as diversas reações, é evidente que estamos navegando em um território novo e em constante evolução. 

As reações variadas – desde a rejeição total até a adoção estratégica – refletem a complexidade e a multiplicidade de desafios e oportunidades que a IA apresenta: eu prefiro ver por esse lado! 

O ponto chave para um uso eficaz e responsável da IA reside no equilíbrio. 

É crucial reconhecer as limitações da IA, compreendendo que, no seu estado atual, ela serve melhor como uma ferramenta auxiliar, e não como uma fonte autônoma e infalível de verdade. 

A validação ou não, o aprendizado sobre a engenharia de prompts, a formulação cuidadosa de instruções a partir e a compreensão aprofundada do funcionamento da IA são essenciais para extrair seu potncial máximo, minimizando sempre riscos de desinformação.

Como disse, devemos encarar as “alucinações” da IA não apenas como falhas, mas também como oportunidades para aprendizado e melhoria. Cada interação com a IA, seja ela bem-sucedida ou não, oferece insights valiosos para aprimorar os modelos e torná-los mais confiáveis e úteis.

Por fim, a integração da IA em nossas práticas diárias – seja na biblioteconomia, na educação, na indústria ou em qualquer outro campo – deve ser feita com um senso de responsabilidade ética. Isso implica não apenas no uso prudente da tecnologia, mas também na conscientização e educação dos usuários sobre suas capacidades e limites.

À medida que avançamos nesta era da informação dominada pela IA, quer você queira, quer não, é nosso dever coletivo abordar essa tecnologia não como um fim em si mesma, mas como um meio poderoso e dinâmico para enriquecer e expandir nosso entendimento e capacidades humanas, sobretudo se estamos diante de profissionais da informação por aqui. 

Espero que essa abordagem sirva para maximizar os benefícios da IA enquanto mitigamos seus riscos, gerando confiança e busca por competências digitais neste novo horizonte onde humanos e tecnologia se cruzam e precisam lembrar que o dicionário Cambridge, ao eleger o “alucinar” como palavra do ano, também mencionou que que os seres humanos ainda precisam trazer suas habilidades e seu pensamento crítico também para o uso dessas ferramentas! 

Esse texto faz parte dos bits da biblio, nossa newsletter semanal sobre biblio, IA e marketing digital! 

Jorge Cativo

.

 

Sair da versão mobile