Ao observar as notícias, parece que entramos em um episódio de Além da Imaginação, onde coisas que antes não eram possíveis (ou pelo menos não fáceis de realizar) parecem relativamente triviais com a IA moderna.

Quando usada de forma responsável, a IA pode ajudar a fazer coisas incríveis, como tecnologias de Digital Twin (Gêmeo Digital) que permitem simulações hiper-realistas e modelagem de cenários do mundo real para uma fabricação de aeronaves mais segura; previsões de IA para prevenir mortalidade materna; ajudar a compartilhar mais informações digitalizando materiais arquivísticos manuscritos e únicos; demonstrações de ciência de subsuperfície (infraestrutura crítica subterrânea) com IA para auxiliar na formulação de políticas; IA ajudando a descobrir materiais mais eficientes para baterias em ciências sustentáveis, e muito mais.

Por outro lado, a IA sem limites responsáveis pode levar a problemas que devem ser evitados, como algumas notícias e pesquisas já mostraram. Com os limites adequados, regulamentações e princípios em vigor, a IA pode acelerar e tornar a pesquisa mais eficiente, além de promover avanços na inovação, ao mesmo tempo em que protege seu uso de atores mal-intencionados, como pesquisadores da George Washington University alertaram.

Uma parte do desafio em implementar e seguir práticas de IA responsável é que o termo IA é ambíguo, pois não possui uma definição padronizada. A IA é aprendizado de máquina? Um processo de mesclagem e desduplicação é considerado IA? IA é apenas um script simples? É difícil determinar o que é responsável em IA quando existem tantas formas de defini-la.

A Lei de IA da UE define IA no Artigo 3.1 como:

"um sistema baseado em máquina projetado para operar com diferentes níveis de autonomia e que pode exibir adaptabilidade após a implantação, e que, para objetivos explícitos ou implícitos, infere, a partir da entrada que recebe, como gerar saídas, como previsões, conteúdo, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais (2024)."

A UNESCO define IA como:

"tecnologia que gera automaticamente conteúdo em resposta a solicitações escritas em interfaces de conversação em linguagem natural. Em vez de simplesmente curar páginas da web existentes, ao se basear em conteúdo existente, a IA generativa na verdade produz novo conteúdo. O conteúdo pode aparecer em formatos que compreendem todas as representações simbólicas do pensamento humano: textos escritos em linguagem natural, imagens (incluindo fotografias, pinturas digitais e desenhos animados), vídeos, música e código de software. A IA generativa é treinada usando dados coletados de páginas da web, conversas nas mídias sociais e outros meios de comunicação online. Ela gera seu conteúdo analisando estatisticamente as distribuições de palavras, pixels ou outros elementos nos dados que consumiu e identificando e repetindo padrões comuns (por exemplo, quais palavras geralmente seguem outras palavras) (2023, p.8)."

O Serviço de Pesquisa do Congresso dos Estados Unidos define IA como:

"sistemas computadorizados que trabalham e reagem de maneiras que normalmente exigem inteligência... [e] refere-se a modelos de aprendizado de máquina (ML) desenvolvidos através do treinamento em grandes volumes de dados para gerar conteúdo (2023)."

Existem muitas definições de IA além dessas, e muitas foram escritas antes dos Modelos de Linguagem de Grande Escala (LLMs) que vemos sendo usados amplamente hoje, mas a maioria das definições concorda que a IA é um modelo não supervisionado, treinado em vastas quantidades de dados da web, usado para gerar texto e imagens com base em previsões estatísticas de suas aprendizagens.

Quer se conectar à nossa jornada de IA?

Além da questão das definições, IA se tornou a nova palavra da moda; muitos produtos agora afirmam usar IA, mesmo quando podem não estar usando. Rotular incorretamente o que é ou não IA torna mais difícil aplicar e fazer cumprir a IA ética e responsável, e também torna mais difícil para os consumidores identificarem o que é IA (ou gerado por IA) e tomarem precauções ao usá-la. Com novas regulamentações como a Lei de IA da UE, torna-se ainda mais importante rotular corretamente o que está usando ou foi gerado por IA, o que exige uma definição padrão para ajudar empresas e usuários a identificar o que estão usando ou o que foi gerado por IA e tratá-lo de maneira responsável.

Para garantir que a EBSCO possa identificar e rotular quais recursos de produtos estão usando ou foram gerados por IA, e para nos assegurarmos de que estamos comunicando isso de forma apropriada aos nossos usuários, nos inspiramos nas fontes mencionadas aqui e definimos IA na EBSCO como "um termo geral para processos de aprendizado de máquina onde o modelo aprende a partir de uma vasta quantidade de informações não estruturadas e não etiquetadas, geralmente da web aberta, onde ele aprende propriedades linguísticas, como a construção de frases, como as pessoas falam sobre certos tópicos e como contextualizar o significado dessas palavras quando usadas juntas, tudo isso para prever como responder às necessidades dos usuários inseridas como uma consulta ou solicitação ao modelo."

Ao longo desta série, exploraremos os princípios de IA que a EBSCO está utilizando, onde estamos aplicando IA e como estamos apoiando a pesquisa responsável por meio de IA responsável.

Acompanhe enquanto nos aprofundamos em cada um dos seis princípios de IA nos próximos meses:

  1. Qualidade: Usar dados e recursos autoritativos para fundamentar a IA em fontes confiáveis, com validação por humanos (bibliotecários).
  2. Transparência: Rotulagem clara dos recursos de IA e IA explicável para apoiar a tomada de decisões informadas.
  3. Alfabetização Informacional: Parceria com bibliotecários para ensinar o uso da IA, o que é IA responsável, como avaliar os resultados de IA para pesquisa e o que é uso aceitável de IA.
  4. Igualdade: Basear-se em dados diversos e validados, proporcionando acesso igualitário ao conteúdo, independentemente da experiência de pesquisa, idioma principal ou especialização.
  5. Valor para o Usuário Final: A IA deve ser centrada no usuário, testada e validada por eles, com foco na UX para garantir que a IA seja usada de forma responsável para uma pesquisa mais eficaz.
  6. Integridade dos Dados: A IA da EBSCO seguirá as mesmas políticas e procedimentos de proteção à privacidade e direitos de titulares de direitos autorais e dados de usuários.

Quer acompanhar o resto da série?