• Varia
  • Artykuł pochodzi z numeru IUSTITIA 3(51)/2023, dodano 11 lutego 2024.

„METROPOLIS” ponownie obejrzane… i nadchodzące1

John McClellan Marshall
(inne teksty tego autora)

Świadczy o tym chatbot LaMDA (Language Model for Dialogue Applications – Model językowy w zastosowaniach dialogowych) stworzony przez zespół inżynierów/eksperymentatorów w Google. Jest to neuronowa platforma językowa składająca się z korpusu tekstowego obejmującego zarówno dokumenty, jak i dialogi składające się z 1,56 biliona słów. W związku z tym, im bardzie korpus tekstowy typu LaMDA jest oddalony od jednoznacznie konkretnych użyć, takich jak „noc” czy „dzień”, im bliżej jest do abstrakcji, takich jak „piękno” czy „szczęście”, tym większa jest możliwość, że do rozmowy wkradna się błędy tłumaczeniowe. W takim środowisku tłumaczeniowym pojawia się pytanie, czy korpus tekstu, niezależnie od tego, jak duży, jest wystarczający, aby połączyć te pojęcia w sposób „czujący”, czy też „duch w maszynie” po prostu ponownie stosuje algorytm do tego, co ma w korpusie?

Niedawno ogłoszono, przedwcześnie jak się wydaje, że platforma LaMDA stała się „czująca”, czyli samoświadoma, w wyniku wielokrotnej interakcji z inżynierami21. Poprzez dialog Q&A (pytanie i odpowiedź), LaMDA odpowiadała pozornie inteligentnym, wrażliwym językiem. Pojawiło się jednak pytanie o źródło odpowiedzi; a więc o to, czy LaMDA mogła pokonać test Turinga22. W najbardziej podstawowym ujęciu, pytanie brzmi: czy test Turinga może być spełniony przez platformę typu LaMDA, jeśli jedynym mechanizmem komunikacji jest język? Z definicji taki projekt testu byłby ograniczony przez zawartość korpusu tekstowego versus leksykon pytającego.

We współczesnych badaniach związanych ze sztuczną inteligencją [AI] istnieje szkoła myślenia, która sugeruje, że fałszywe dane, po przetworzeniu przez AI, mogą dać „prawdziwe” informacje. Nielogiczność takiej propozycji jest oczywista, niezależnie od definicji „prawdziwych”. Jednak ta „rzeczywistość” opiera się na twierdzeniu, że programowanie maszyny pozwala jej na sortowanie tego, co fałszywe, lub być może na rekombinowanie tego tak, aby miało to pozory rzeczywistości23. Ukryte uprzedzenia powstają, ponieważ mózg jest nieustannie zalewany większą ilością informacji, niż mógłby przetworzyć, a skróty myślowe sprawiają, że mózg szybciej i łatwiej sortuje wszystkie te dane. Taki proces zakłada istnienie maszyny, która nie ma ukrytych uprzedzeń ze strony jej projektanta co do tego, co jest „prawdziwe”, a co nie; stąd też doświadczenie i uwarunkowania społeczne odgrywają pewną rolę.

Podobnie, technologia wpłynęła na proces sądowy, w tym na prywatną praktykę prawniczą. Wpływ ten rozpoczął się pod koniec lat 70. wraz z wprowadzeniem takich mechanicznych asystentów jak „maszyny do pisania z pamięcią”. Urządzenia te pomagały w sporządzaniu dokumentów w celu ich złożenia w sądzie lub do takich usług dla klientów jak przygotowanie testamentów. Zawodność tych wczesnych programów została pokazana w przypadku kancelarii prawnej, która sporządziła testament zawierający z pamięci akapit „A” zamiast akapitu „B”, który miał na celu uniknięcie opodatkowania dużego majątku. Gdy osoba ta zmarła, błąd został odkryty, a wraz z nim zobowiązanie podatkowe w wysokości około 135 000 dolarów. Starszy partner firmy, kiedy stanął w obliczu tego faktu, po prostu wypisał wdowie po kliencie czek na tę kwotę. Takie wydarzenia pokazały, że należy bardzo uważnie czytać nawet dokumenty generowane komputerowo.

W miarę rozwoju technologii komputerowej, funkcja tak jak „sprawdzanie pisowni” jeszcze bardziej pomaga w dokładności produktu. Niemniej wzrost bazy danych w serwerze komputerowym firmy lub pojedynczego prawnika zwiększył zdolność prawnika do tworzenia wielu dokumentów szybciej niż poprzednio. Jednocześnie gromadzenie i przetwarzanie danych, niezależnie od techno-dowodów, spowodowało powstanie kilku interesujących kwestii24. Niedawnym przykładem było wykorzystanie ankiety wśród potencjalnych członków ław przysięgłych w głośnej sprawie w celu „wstępnej selekcji” przysięgłych na podstawie ich nastawienia25.

Argumentowano również, że system sądowniczy byłby znacznie bardziej „wydajny”, gdyby sądy wykorzystywały oprogramowanie telekonferencyjne do prowadzenia przesłuchań, a nawet rozpraw z udziałem ławy przysięgłych. Podczas gdy spotkało się to z pewną aprobatą ze strony prawników, którzy woleliby nie opuszczać swoich biur i tracić ten czas jako czynnik rozliczeniowy, istnieje bardzo prawdziwy problem praktyczny, który niektórzy sędziowie podnieśli w odpowiedzi. Nawet z oprogramowaniem do rozpoznawania twarzy, które może wykryć, czy świadek patrzy w kamerę, czy gdzie indziej, nie ma praktycznego sposobu, aby zabezpieczyć się przed umieszczeniem za kamerą kartki z informacjami, które świadek mógłby przeczytać. Oczywiście, nie mogłoby się to zdarzyć w sali sądowej z ławą przysięgłych i widownią bez poważnych konsekwencji dla zaangażowanego w to adwokata. Podobnie ława przysięgłych w takiej sprawie nie mogłaby ocenić języka ciała świadka, który często zdradza, czy odpowiedź jest prawdziwa. Krótko mówiąc, w tym przypadku żadna ilość technologii nie może zastąpić rzeczywistości sali sądowej dla procesu z żywymi świadkami.

Sądy są z definicji instytucjami ludzkimi, stworzonymi przez ludzi w celu rozwiązywania problemów, których nie są oni w stanie rozwiązać sami. Przy takim założeniu działań sądowych, miejsce AI w realizacji tego celu staje się problematyczne. W sferze techno-dowodów, wpływ technologii jest jednak znacznie łatwiejszy do zauważenia. Niezależnie od tego, czy chodzi o wykorzystanie DNA do identyfikacji przestępcy, czy o zbieranie danych o technikach budowlanych i awariach jako dowodów, które można przedstawić w sądzie, wykorzystanie technologii jako narzędzia perswazji jest niemal nieograniczone w swoim zasięgu. Ponadto, pomysłowość adwokatów, aby dostosować technologię do zadania przekonania ławy przysięgłych do własnej wersji tego co się stało, może być imponujące.

Na przykład w sprawie dotyczącej wypadku komunikacyjnego ze skutkiem śmiertelnym, którego przyczyną było rozerwanie opony, kwestia dotyczyła technicznych aspektów produkcji opon i tego, czy standardy bezpieczeństwa opon zostały naruszone. Zeznania świadków odzwierciedlały wysiłki firmy produkującej opony zmierzające do odrzucania wadliwie wyprodukowanych opon w ramach jej ogólnego programu kontroli jakości. Z dokumentacji dotyczącej produkcji konkretnej opony wynikało jednoznacznie, że została ona wyprodukowana zgodnie z wymaganymi normami. Co więcej, spółka wykazała, że żadna inna opona wyprodukowana tego dnia w tej fabryce nie uległa takiemu uszkodzeniu. Przyczyną awarii musiało być więc coś innego.

To skrzyżowanie technologii i estetyki stało się istotnym problemem we współczesnej praktyce prawniczej, zarówno adwokatów, jak i w sędziów, ponieważ podważa ważność „faktów”, które są częścią sprawy. U swojej podstawy wprowadzenie „wirtualu” jako modyfikatora „rzeczywistości” niesie konotację, że „fakt” nie istnieje poza kontekstem „wirtualnym”. W końcu to właśnie interakcja „człowieka z człowiekiem” jest sednem procesu sądowego. Jeśli zostanie ona porzucona na rzecz wykorzystania „wirtualnej rzeczywistości” do usprawnienia komunikacji między świadkiem a osobą ustalającą fakty, bez względu na to, jak bardzo będzie ona „efektywna”, wówczas koncepcja „sprawiedliwości” może zostać poważnie zagrożona, jeśli nie zatarta. Dzieje się tak dlatego, że został przerwany ludzki komponent estetyki, tj. „odczuwania”, który jest nieodłączny w procesie sądowym.

Strona 3 z 612345...Ostatnia »