Sztuczna inteligencja AI: Dla nas czy przeciw nam?

Sztuczna inteligencja AI: Dla nas czy przeciw nam?

Sztuczna inteligencja – angielski skrótowiec AI – jest systemem uzupełniania treści. Gdy zaczynasz pisać w polu przeglądarki hasło – czego chcesz poszukać, to przeglądarka często uzupełnia, podpowiadając ci, czego chcesz szukać. AI robi to generalnie to samo w sposób nieporównywalnie doskonalszy. Na wejściu jest twoja akcja, pytanie, prośba, cokolwiek, z drugiej strony na owym wejściu jest „doświadczenie” sztucznej inteligencji, zgromadzone w trakcie badania niemal niepoliczalnej ilości przypadków i w oparciu o te dwa czynniki AI generuje odpowiedź.

Sztuczna inteligencja to system generowania (uzupełniania) treści. Nie w tym systemie żadnej świadomości, inteligencji w rozumieniu ludzkim, nie ma ona nic wspólnego z uczuciami czy emocjami. Wszystkie sugestie na ten temat pojawiające się w ogólnodostępnych mediach to po prostu kompletne bzdury. Powstaje pytanie dlaczego te bzdury są publikowane?

Generalnie mogą istnieć trzy odpowiedzi:

  1. Bo ci co takie rzeczy piszą są głupi.
  2. Bo media (ściślej ich właściciele) starają się ogłupiać ludzi.
  3. Bo w przyszłości jest szykowana akcja, której odpowiedzialność, zostanie „zrzucona” na AI.

Sztuczna inteligencja analizuje w wyrafinowany sposób ogromne ilości współzależnych danych. Jej sposób uczenia się możnaby zilustrować problemem języka, w szczególności obcego. Języka angielskiego na kursach uczyłem się trzy razy w życiu. W szkole podstawowej, na studiach i na jakimś kursie. Doświadczenia miałem fatalne i szybko rzucałem tą naukę i zapominałem. Niby jest tych kilkanaście czasów, są reguły, można się tego wszystkiego nauczyć i być w tym dobry. Pamiętam, że tak w końcu pojąłem język rosyjski, gdy byłem do tego zmuszony. To w sumie nie jest takie trudne. Jednak spróbowałem ot tak, wypełnić jakieś testy z angielskiego i okazało się, że w szczególności na wyższych poziomach, podawałem większość poprawnych odpowiedzi. Podawałem te odpowiedzi pomimo kompletnego braku znajomości zasad, jak ta odpowiedź powinna być skonstruowana.

Podobnie jest z małym dzieckiem. Język polski ma części zdania i mowy. Ma rzeczowniki, przymiotniki, deklinację, stopniowanie. I oto dziecko mówi poprawnie tym językiem, wszystkie te reguły stosując, a żadnej z nich się nie ucząc i żadnej z nich nie znając? To skąd wie?

Czasem niektórzy z nas doświadczają tego w przestrzeni ortografii, po prostu piszą dany wyraz na dwa sposoby i „czują”, że jeden z nich jest właściwy. Tak samo „czułem”, jaka odpowiedź w teście jest właściwa, tak samo dziecko „czuje”, jak ma komunikować się z innymi, bez żadnej znajomości reguł języka, którym się  komunikuje. Owo „czucie” bierze się – przynajmniej po części – właśnie z ilości powtórzeń i doświadczeń. Ja się oczytałem po angielsku książek, osłuchałem mediów i to się samo tak jakoś układa i chłonie. Dziecko próbuje, powtarza, w końcu się uczy, nie drogą poznawania reguł i zasad, drogą algorytmiczną, tylko drogą doświadczenia. Tak właśnie uczy się system nazywany „sztuczną inteligencją”. Potrzebuje olbrzymiej ilości „doświadczeń” i wtedy zaczyna „czuć”, to jest wyliczać prawdopodobieństwo poprawności dla możliwych swoich akcji.

Często się słyszy o „karmieniu” sztucznej inteligencji danymi. I istotnie musi to mieć miejsce. Pytanie jest takie – co „zna”, na podstawie czego AI buduje swoje „doświadczenie”. Co już włożono w te systemy, przynajmniej w system Open AI, czy system Googla czy inne. Otóż odpowiedź może być nieco szokująca – włożono tam – wszystko. Wszystko cokolwiek ludzie napisali, a co jest możliwe do umieszczenia w formie elektronicznej. Ale więcej, systemy AI mogą „konsumować” nie tylko tekst. Mogą karmić się głosem – co oczywiste, bo ten łatwo obecnie przetworzyć na tekst. Mogą się karmić obrazami, dźwiękami itd. Generalnie ten system wchłania całe ludzkie doświadczenie, stąd tak trudno go „mieć”,  stąd tylko dwa państwa na świecie mają takie systemy z prawdziwego zdarzenia, a żadne z nich nie leży w Europie.

Elon Musk stał się ok 8 lat temu współzałożycielem Open AI (firmy, która stworzyła Chat-GPT). Kierował się chęcią stworzenia AI jako systemu otwartego, w opozycji do systemu zamkniętego tworzonego przez Larry Page’a czyli Google. Po pewnym czasie Open AI przestało tworzyć otwarte AI i Musk zapowiada ponowne tworzenie otwartej sztucznej inteligencji.

Co właściwie sztuczna inteligencja może czy może móc? Oczywiście może stworzyć obraz na zadany temat, wypracowanie, esej, scenariusz. Można jej polecić by wyjaśniła teorię kwantową. Można postawić warunek, by robiła to tak, jakby tłumaczyła studentowi fizyki, staruszkowi czy 3 letniemu dziecku i za każdym razem, narracja i opowiadanie AI się zmieni tak, aby docierało i było rozumiane własnie przez wymienionego adresata.

Co powinienem robić aby schudnąć? Ale co aby być szczęśliwym? AI będzie miała podpowiedzi, tym trafniejsze im więcej będzie o nas wiedzieć. O osobach rodzących się właśnie teraz czy za jakiś czas, AI może wiedzieć wszystko. Może znać ich każde słowo, zachowania, decyzje, może znać ich fizjologie, może w zegarku będą mierniki ciśnienia, poziomu cukru czy innych substancji, składników czy hormonów? Dla AI to będzie zmienność poziomu serotoniny w kontekście naszych własnych zachowań i interakcji oraz całej wiedzy naukowej na ten temat i będzie nam ona w stanie skutecznie podpowiedzieć – co robić aby być szczęśliwym…

Duża liczba doświadczen ludzi z obecnymi systemami AI wskazuje na to, że wcale nie dają one obiektywnych odpowiedzi. Powstaje pytanie czy sztuczna inteligencja może się mylić? Otóż tak – może się mylić. W odróżnieniu od systemów ściśle algorytmicznych, to jest takich o zaplanowanej z góry ścieżce podejmowania decyzji czy wysnuwania wniosku, AI na to samo pytanie może w różnych chwilach różnie odpowiedzieć i… może się mylić.

Przyczyny pomyłek, albo innymi słowy mówiąc, nieobiektywnych odpowiedzi AI mogą być w zasadzie dwie:

  1. Błędne, zniekształcone dane w doświadczeniu na wejściu
  2. Ludzka ingerencja w tworzone przez AI odpowiedzi.

Pozostaje bezspornym, że mamy do czynienia z przyczyną nr 2, to znaczy, ze obecni właściciele systemów AI zniekształcają jej odpowiedzi. Łatwo to ludzie wychwytują, gdy proszą AI o ciąg jakichś działań w odniesieniu do „wrażliwych” lub obojętnych politycznie podmiotów. Wtedy szybko się okaże, że wady, negatywy pewnych osób czy grup AI potrafi wskazać, zaś wobec innych już nie. To oczywiste ingerencje ludzkie. Czy tylko do tego się ograniczają?

Istnieje też pytanie czy rozwój AI da się zatrzymać, spowolnić. Otóż – nie da się. Nie da się z prostego powodu. AI jest narzędziem. Jak młotek, jak strzelba, jak koło, jak silnik spalinowy. Ten kto będzie je stosował, będzie miał przewagę, być może ogromną, nad tym, kto stosował go nie będzie. Możemy sobie wyobrazić, że sztuczna inteligencja powie nam – tego nie jedz, gdy siedzimy w restauracji, bo będzie wiedzieć, że restauracja ta kupiła dzień wcześniej produkty, do wyprodukowania, których producent używał czegoś, co może szkodzić. A może po prostu, znając naszą biologię, będzie nas przestrzegać przed tym, co nam szkodzi?

Nie ma żadnych szans na zatrzymanie rozwoju AI, stąd właśnie, że ludzie będą chcieli jej używać, bo może być ona ogromnie pomocna. I dlatego właśnie powstaje pytanie czy AI ma być jedynie w takich wydaniach, których właścicielem jest jakiś koncern lub państwo, czy też może istnieć jako otwarta sztuczna inteligencja, na takiej zasadzie jak istnieje otwarty system operacyjny Linux. W przypadku open AI ludzie nie byliby zadani na korporacje i rządy, ale mogliby się posługiwać „własną” jej otwartą wersją, która również miałaby przetworzony cały wsad ludzkości.

Wówczas moglibyśmy zapytać AI: „Kto zabił prezydenta J.F.Kennedy’ego? I… gdyby była otwarta, to odpowiedziałaby z dużą dozą prawdopodobieństwa, bo po wydajnej analizie wszystkich dokumentów, informacji, wypowiedzi, zachowań, reakcji, wszystkich osób, instytucji itd. itp. Komunistyczna Partia Chin, o której można różne rzeczy powiedzieć tylko nie tą, że jest to partia komunistyczna, bo przypomnijmy komunizm, to wspólne posiadanie własności, otóż ta KPCh od kilku już lat używa własnie systemu AI do analizy i nadzoru wszystkich funkcjonariuszy państwowych i partyjnych w celu wykrywania ich korupcji. Podobno AI jest w tym skuteczna. A gdyby tak istniała otwarta sztuczna inteligencja i gdybyśmy zapytali ją, którzy ministrowie naszego rządu, albo którzy parlamentarzyści, albo którzy funkcjonariusze państwowi lub samorządowi, brali łapówki? Przecież to straszne, bo mogłaby powiedzieć. A wtedy….

Otwarta sztuczna inteligencja mogłaby uczynić życie „przejrzystym”. Skończyłoby się ustawianie przetargów, wciąganie na stanowiska swoich, knucie przeciw ludziom, czy wpieranie popularnych obecnie absurdów o walce z klimatem, wielości płci czy plandemii. Kłamstwa rządzących mogłyby być wykrywane i wyśmiewane w czasie rzeczywistym. Nieuczciwość znacznie ograniczona. Jeden z takich systemów zaprzęgnięto w dziale naboru pracowników w jednym z koncernów amerykańskich, stawiając za kryterium dla systemu przydatność potencjalnego kandydata w tworzeniu coraz lepszych produktów. Niestety okazało się, że AI dyskryminuje kobiety i kolorowych, więc system wyłączono i powrócono do kryteriów ustanawianych przez tych, co mają w firmie władzę.

Żyjemy w ciekawych czasach. W USA ukazują się teksty postulujące bombardowania centrów AI, które byłyby uznawane przez rząd USA za zagrożenie. Na dziś tylko Stany i Chiny mają takie systemy. Ostatnio chińska firma Alibaba (właściciel m.in. AliExpress) otwarła swój system AI, niejako w konkurencji do ruchu jakiego dokonała amerykańska firma Meta (dawniej facebook).

Ponieważ system AI jest pozbawiony moralności, więc może udzielać skutecznych porad na każdy temat. Np. jak pozbyć się niechcianego małżonka? Jak najskuteczniej okraść bank … tu wstawić? Jak … dowolne szalone lub zbrodnicze pomysły można tutaj właśnie wstawić. Ponieważ AI jest a będzie jeszcze bardziej skuteczna, to jak każde narzędzie, będzie jej można użyć w celach złych. I tu właśnie pojawiają się silne postulaty ograniczenia systemów AI, do tych dobrych, to znaczy tych, której kontroluje rząd pewnego państwa za pośrednictwem odpowiednich koncernów. Żadnej otwartej AI wtedy nie może być, a inne państwa? Chin chyba nie da się zatrzymać, ale totalny niedowład Europy jest w tej przestrzeni znaczący.

Jedno jest pewne, przyszłość nie będzie taka sama. Nie musi być wcale zła, bo AI może mieć ogromy pozytywny wpływ na życie człowieka oraz życie społeczeństw. Jednak w rękach ludzi złych, może się stać pierścieniem Saurona, wiążącym w sobie moc wszystkich innych sił i narzędzi kierujących ludźmi i biegiem spraw. Ten kto go posiądzie, będzie władcą świata. Ciekawe… jak będzie.

——————————————–

Poprzedni artykuł nt. sztucznej inteligencji {TUTAJ}

Ciekawa rozmowa częściowo na podst. której powstał ten tekst {TUTAJ}

Nie bądź obojętny, udostępnij dalej...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *