Leggendo le notizie, sembra di essere stati catapultati in un episodio di Ai confini della realtà, dove cose che in passato non erano possibili (o almeno non facilmente realizzabili) ora sembrano relativamente banali grazie all'IA moderna.

Quando utilizzata in modo responsabile, l'IA può contribuire a realizzare cose straordinarie, come le tecnologie Digital Twin (gemello digitale), che consentono simulazioni iperrealistiche e modellazione di scenari reali per una produzione più sicura di aerei; previsioni per prevenire la mortalità materna; digitalizzazione di materiali archivistici unici per condividere maggiori informazioni; dimostrazioni di scienza del sottosuolo (infrastrutture critiche sotterranee) con l'IA per assistere nella creazione di politiche; l'IA che aiuta a scoprire materiali più efficienti per le batterie nella scienza verde, e molto altro.

L'IA senza confini responsabili può portare a problemi che sarebbe meglio evitare, come hanno dimostrato alcune notizie e ricerche. Con limiti chiari, normative e principi adeguati, l'IA ha il potenziale di accelerare la ricerca, stimolare l'innovazione e proteggere il suo utilizzo da pratiche scorrette, come hanno avvertito gli esperti della George Washington University.

Una parte della difficoltà nel definire e rispettare pratiche responsabili nell'IA è la mancanza di una definizione standardizzata di cosa si intenda per "IA responsabile". Include l'apprendimento automatico? E per quanto riguarda gli sforzi di fusione e deduplicazione dei dati? O si riferisce semplicemente a script di base? È difficile determinare cosa sia responsabile quando ci sono così tanti modi di definirla.

Nell'articolo 3.1, la Legge dell'UE definisce l'IA come:

«un sistema basato su macchine progettato per funzionare con diversi livelli di autonomia e che può mostrare capacità di adattamento dopo il suo utilizzo, e che, per obiettivi espliciti o impliciti, deduce, a partire dagli input ricevuti, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali (2024).»

L'UNESCO definisce l'IA come:

«tecnologia che genera automaticamente contenuti in risposta a istruzioni scritte in interfacce conversazionali di linguaggio naturale. Invece di limitarsi a curare le pagine web esistenti, basandosi sui contenuti già disponibili, GenAI produce effettivamente nuovi contenuti. I contenuti possono apparire in formati che comprendono tutte le rappresentazioni simboliche del pensiero umano: testi scritti in linguaggio naturale, immagini (incluse fotografie, pitture digitali e fumetti), video, musica e codice software. GenAI si allena a partire da dati raccolti su pagine web, conversazioni sui social media e altri mezzi online. Genera i suoi contenuti analizzando statisticamente le distribuzioni di parole, pixel o altri elementi nei dati che ha elaborato e identificando e ripetendo schemi comuni (ad esempio, quali parole seguono tipicamente quali altre parole) (2023, p. 8).»

Il Servizio di ricerca del Congresso degli Stati Uniti d'America definsice l'IA come: 

«sistemi computerizzati che operano e reagiscono in modi che comunemente si pensa richiedano intelligenza...[e] si riferisce a modelli di apprendimento automatico (ML) sviluppati attraverso l'addestramento su grandi volumi di dati al fine di generare contenuti (2023).»

Esistono molte definizioni di IA oltre a queste, e molte di esse sono state scritte prima dei Modelli di Linguaggio di Grandi Dimensioni (LLM) che vediamo oggi utilizzati più frequentemente, ma la maggior parte delle definizioni concorda almeno sul fatto che l'IA è un modello non supervisionato addestrato su grandi quantità di dati web, per lo più aperti, utilizzato per generare testi e immagini basati su previsioni statistiche derivate dai suoi apprendimenti.

Aldilà delle definizioni, l'IA è diventata la nuova parola d'ordine; molti prodotti affermano di utilizzare l'IA quando in realtà potrebbe non essere così. L'errata etichettatura di ciò che è e ciò che non è IA rende più difficile l'applicazione di una sua versione etica e responsabile, e complica anche la capacità dei consumatori di identificare cos'è l'Intelligenza Artificiale (o ciò che è generato dall'IA) e di adottare precauzioni nel suo utilizzo. Inoltre, con nuove regolamentazioni come il Regolamento sull'IA dell'UE, è ancora più importante avere un'etichettatura corretta di ciò che utilizza o è generato dall'Intelligenza Aartificiale, il che richiede una definizione standard per aiutare aziende e utenti a identificare ciò che stanno usando o ciò che è generato da essa e trattarlo in modo responsabile.

Per garantire che EBSCO identifichi e comunichi adeguatamente le caratteristiche del prodotto legate all'IA, ci baseremo su fonti autorizzate e la definiremo come: "un termine generale per i processi di apprendimento automatico in cui il modello apprende da grandi volumi di informazioni non strutturate, normalmente provenienti dal web aperto, per prevedere come rispondere alle esigenze dell'utente."

In questa serie, esamineremo i principi di IA adottati da EBSCO, il loro utilizzo e il modo in cui promuoviamo la ricerca responsabile con l'IA.

Seguiteci mentre esploriamo più in dettaglio i sei principi dell'IA nei prossimi mesi:

  • Qualità: uso di dati e risorse affidabili, basati su ricerca umana;
  • Trasparenza: etichettatura chiara delle caratteristiche dell'IA e spiegazione per decisioni informate;
  • Alfabetizzazione informazionale: educazione sull'IA responsabile e valutazione dei risultati;
  • Uguaglianza: dati diversi e accessibili, indipendentemente dall'esperienza o dalla lingua;
  • Valore per l'utente finale: IA centrata sull'utente per una ricerca più efficace;
  • Integrità dei dati: rispetto delle politiche di protezione della privacy e dei diritti.

Non perdere i prossimi capitoli della serie!