Obserwując najnowsze wiadomości i doniesienia ze świata, może się wydawać, że jesteśmy w momencie, w którym rzeczy, które kiedyś były niemożliwe albo trudne do osiągnięcia, dzięki AI są teraz w zasięgu ręki.
AI, wykorzystywana w odpowiedzialny sposób, może pomóć w realizacji niesamowitych projektów, jak technologie cyfrowego bliźniaka, które umożliwiają hiperrealistyczne symulacje i modelowanie rzeczywistych scenariuszy dla bezpieczniejszej produkcji samolotów; kreowane przez sztuczną inteligencję prognozy, które zapobiegają śmiertelności matek po porodzie; pomoc w udostępnianiu większej ilości informacji dzięki digitalizacji unikatowych rękopisów z archiwów; demonstrowanie nauki o podziemnych strukturach (podziemna infrastruktura krytyczna) czy opracowywanie bardziej wydajnych materiałów do budowy baterii.
Niestety AI bez wyznaczenia odpowiedzialnych granic może prowadzić do problemów. Z zastosowaniem regulacji i zasad AI może przyczynić się do szybszych i bardziej efektywnych badań oraz przełomowych odkryć, jednocześnie uniemożliwiając jej zastosowanie w złych intencjach, przed czym ostrzegali naukowcy z George Washington University.
Część trudności w stosowaniu i przestrzeganiu zasad odpowiedzialnej sztucznej inteligencji wynika z faktu, że AI jako termin jest niejednoznaczny, ponieważ nie ma ustalonej, standardowej definicji. Czy AI to uczenie maszynowe? Czy połączenie i deduplikacja danych jest uznawane za AI? Czy AI to prosty skrypt? Trudno jest określić, co jest odpowiedzialnym wykorzystaniem AI, gdy istnieje tak wiele sposobów definiowania tego pojęcia.
Część trudności w stosowaniu i przestrzeganiu zasad odpowiedzialnej sztucznej inteligencji wynika z faktu, że AI jako termin jest niejednoznaczny, ponieważ nie ma ustalonej, standardowej definicji. Czy AI to uczenie maszynowe? Czy połączenie i deduplikacja danych jest uznawane za AI? Czy AI to prosty skrypt? Trudno jest określić, co jest odpowiedzialnym wykorzystaniem AI, gdy istnieje tak wiele sposobów definiowania tego pojęcia.
Akt Unii Europejskiej ws. sztucznej inteligencji definiuje AI jako
"system maszynowy, zaprojektowany do działania z różnym
poziomem autonomii, który może po wdrożeniu wykazywać zdolność adaptacji i który – do wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne."
UNESCO definiuje AI jako
„technologię, która automatycznie generuje treści w odpowiedzi na polecenia pisane w interfejsach konwersacyjnych w języku naturalnym. Zamiast po prostu dobierać istniejące strony internetowe, GenAI rzeczywiście tworzy nowe treści na podstawie istniejących materiałów. Treści te mogą przyjmować formy obejmujące wszystkie symboliczne reprezentacje ludzkiego myślenia: teksty pisane w języku naturalnym, obrazy (w tym fotografie, malarstwo cyfrowe i rysunki), filmy, muzykę i kod oprogramowania. GenAI jest szkolona na podstawie danych pochodzących z stron internetowych, rozmów w mediach społecznościowych i innych mediów online. Generuje treści poprzez statystyczną analizę rozkładów słów, pikseli lub innych elementów w danych, które przyswoiła, identyfikując i powtarzając wspólne wzorce (na przykład, które słowa zazwyczaj następują po innych słowach) (2023, s.8).”
Amerykańska Kongresowa Służba Badawcza definiuje AI jako
„skomputeryzowane systemy, które działają i reagują w sposób, który zwykle wymaga inteligencji…[i] odnosi się do modeli uczenia maszynowego (ML) opracowanych na podstawie szkolenia na dużych zbiorach danych w celu generowania treści (2023).”
Istnieje wiele innych definicji AI poza powyżej przytoczonymi; wiele powstało przed pojawieniem się dużych modeli językowych )LLM), które są obecnie najczęściej używane. Jednocześnie większość definicji zgadza się co do tego, że AI to niesuperwizowany model szkolony na ogromnych ilościach głównie otwartych danych dostępnych w internecie, wykorzystywany do generowania tekstu i obrazów na podstawie statystycznych prognoz wynikających z procesu uczenia się modelu. Oprócz problemów z nazewnictwem i definicją, AI stało się słowem-wytrychem: wiele produktów twierdzi, że korzysta ze sztucznej inteligencji, co nie zawsze jest prawdą. Nieprawidłowe oznaczanie tego, co jest, a czym nie jest AI, utrudnia egzekwowanie zasad etycznej i odpowiedzialnej sztucznej inteligencji, a także utrudnia identyfikowanie, kiedy ma się do czynienia z AI (lub jej produktem) i podjęcie odpowiednich środków ostrożności. To, wraz z nowymi regulacjami, jak akt ws. AI Unii Europejskiej, sprawia, że kwestia oznaczania wszystkiego, co korzysta lub zostało wygenerowane za pomocą AI, a do tego istnieje potrzeba opracowania standardowej definicji, która pomoże identyfikować, kiedy i gdzie użytkownicy i firmy mają do czynienia z tą technologią.
Aby EBSCO mogło w odpowiedzialny sposób identyfikować i etykietować funkcje produktów wykorzystujące lub wygenerowane za pomocą AI, a także aby mieć pewność, że jest to odpowiednio komunikowane naszym użytkownikom, m.in. na podstawie przytoczonych wyżej definicji, definiujemy AI jako "ogólny termin oznaczający procesy uczenia maszynowego, w których model uczy się na podstawie niestrukturalnych i nieoznaczonych informacji, zazwyczaj pochodzących z internetu, co pozwala mu na konstruowanie zdań w takich sposób, jak robią to ludzie, kontekstualizowanie znaczenia tych słów, gdy są używane razem. Ma to na celu przewidzieć, jak odpowiedzieć na pytania lub rozwiązać problem użytkownika wpisany w formie zapytania lub polecenia."
Oto 6 zasad odpowiedzialnego korzystania ze sztucznej inteligencji określonych przez EBSCO:
- Jakość: Zapewnienie wiarygodnych zasobów badawczych jest naszym najwyższym priorytetem. Nasze korzystanie z narzędzi AI generatywnego opiera się na sprawdzonych, starannie wybranych treściach, a wyniki są testowane pod kątem jakości.
- Transparentność: Zastosowanie technologii opartych na generatywnej sztucznej inteligencji jest jasno oznaczone, aby wspierać podejmowanie świadomych decyzji przez naszych klientów i użytkowników.
- Równość: Przykładamy wszelkie starania do promocji równego i sprawiedliwego dostępu do informacji i zasobów poprzez wdrażanie środków identyfikujących i eliminujących zarówno algorytmiczne, jak i społeczne uprzedzenia w aplikacjach opartych na generatywnej AI. Wspieramy także równość i sprawiedliwość poprzez takie narzędzia oparte na AI, jak wyszukiwanie w języku ojczystym (oraz w wielu językach), co poprawia dostępność treści dla badaczy posługujących się różnymi językami i świadomość słów kluczowych.
- Kompetencje informacyjne: Wszystkie nasze narzędzia oparte na AI zostały zaprojektowane tak, aby wykazywały głębokie zrozumienie procesu badawczego. Pomagają one użytkownikom krytycznie ocenić zasoby i wybierać wyniki otrzymane w sposób "tradycyjny" (bez AI), a także wyniki uzyskane (i wspierane) dzięki AI. Nasi eksperci (zarówno wewnętrzni, jak i zewnętrzni) nadzorują rozwój i atestowanie wszystkich zastosowań technologii opartych na generatywnej AI w naszych produktach oraz ciągle monitorują ich jakość i użyteczność.
- Integralność praw autorskich: Wdrożenie sztucznej inteligencji w EBSCO będzie chronić prawa autorskie. Korzystając z treści chronionych prawami autorskimi w kontekście generatywnej sztucznej inteligencji, EBSCO zawsze będzie przestrzegać tych samych polityk i procedur ochrony danych, co w przypadku każdego innego zastosowania tych treści w naszych produktach.
- Wartość dla użytkownika końcowego: Nasze rygorystyczne podejście do użyteczności zapewnia, że każde zastosowanie sztucznej inteligencji przez EBSCO ma na celu dostarczanie rzetelnych treści dla użytkowników. Aby to było możliwe, prowadzimy ciągłe badania nad doświadczeniem użytkownika (UX), testujemy design naszych produktów, eliminujemy ryzyko nieścisłości poprzez inżynierię promptu oraz przeprowadzamy ciągłe testy naszych produktów jako część kompleksowego podejścia "Testuj i wyciągaj wnioski".