
Sztuczna Inteligencja (Artificial Inteligence – AI, u nas używa się też skrótu SI), to temat coraz głośniejszy.
Dlaczego taki tytuł?
Bo to już nie fantazja, stało się…
W 2017 r. Google zaprezentował swój projekt o nazwie Auto-ML, który ma ułatwić projektowanie modeli uczenia się maszyn poprzez automatyzację tego procesu. Pozwoliło to stworzyć NASNet – „dziecko” sztucznej inteligencji zaprojektowane do wykrywania obiektów. Ten „twór” przewyższa dotychczasowe najnowocześniejsze architektury uczenia maszynowego stworzone przez ludzi, innymi słowy nie jest to już wytwór ludzki.
Jest to Rubikon nieznanego – w ten sposób lawinowo możemy stracić wszelką kontrolę nad pierwotnie naszymi tworami, bo … już nie są nasze i przewyższają nasze ludzkie możliwości.
Lawinowo, bo kolejne systemy będą tworzyły swoje „dzieci” jeszcze bardziej doskonałe, ale nie wiemy jak, w jakim kierunku i co z tego wyniknie.
Przykład pokazujący nie tyle (?) zagrożenia, co możliwy skok.
Od dziesięcioleci rozwijane są programy do gry w szachy. W wyniku tej długiej ewolucji, do której włożono doświadczenia mistrzów, wiedzę programistyczną z elementami optymalizacji obliczeń, obszerne banki rozgrywek, strategie i taktyki, już dość dawno komputer przejął prym nad mistrzami szachowymi.
Niedawno badacze Google opisali swój twór z dziedziny AI o nazwie AlphaZero, który na podstawie tylko elementarnych zasad gry (zasady poruszania figurami, bez strategii, historii itp.) po 4 godzinach nauki był zdolny wygrać pojedynek z najlepszymi programami szachowymi na świecie.
Nawet nie wiemy czy jest to wiedza o grze w szachy w naszym rozumieniu, czy coś innego.
Komputerowe boty wspomagane przez AI uczą się … tworzenia własnych języków, przy pomocy których się porozumiewają i pomagają sobie wzajemnie. Chyba już nie wiemy o czym ze sobą „rozmawiają”.
Google prowadzi i inne podobne projekty jak Google DeepMind, zapewne także ich wyszukiwarka coraz bardziej wykorzystuje AI.
Wiadomo że istnieją systemy głębokiej inwigilacji – nie tylko w Internecie, ale …wszędzie. Też wspierane przez AI.
Dlatego tak alarmistycznie podszedł do AI Elon Musk, jak by nie było inżynier-wizjoner (założyciel SpaceX, Tesla, Neuralink i innych awangardowych projektów). Od czasu gdy opisywałem te
projekty (Elon Musk – biografia twórcy PayPala, Tesli, SpaceX ) Elon większą uwagę zwrócił właśnie na AI.
Musk obawia się możliwej, może wkrótce, nowej sztucznej inteligencji – super AI – takiej, która jest znacznie bardziej inteligentna niż najtęższe ludzkie umysły i przewyższa je w niemal każdej dziedzinie, pod względem wiedzy ogólnej a nawet i zdolności społecznych.
Od ponad 2 lat Musk patronuje przedsięwzięciu non profit OpenAI, która monitoruje zagadnienia AI . Open AI opublikowała wiele badań, mamy też szereg wypowiedzi samego Muska np.
https://youtu.be/5taE_br3Vr8.
Najnowszy, gdy to piszę, z 30.07.2018 – https://www.inverse.com/article/47557-elon-musk-shares-rapid-a-i-advancement-the-future-is-accelerating traktuje o przyspieszeniu badań i wykorzystaniu technologii.
Musk: AI jest fundamentalnym zagrożeniem dla istnienia ludzkiej cywilizacji (inna wypowiedź – „A.I. is Fundamental Risk to Civilization”). Mówi, że ta technologia stwarza potencjalnie większe niebezpieczeństwo niż broń nuklearna. Przesadza? Może ma na myśli brak regulacji międzynarodowych, jakich doczekała się broń jądrowa i mniejszą świadomość społeczną zagrożeń.
W popularnym wyobrażeniu mającym źródło w powieściach SF, zagrożeniem jest robot, który buntuje się przeciw człowiekowi i moze go np. zabić. W takim przypadku przewidujący konstruktor robota ogranicza jego oprogramowanie wbudowując odpowiednie zabezpieczenia i problem wydaje się zażegnany (pomijając jednak zwykłe awarie i błędy owego oprogramowania). Takiego robota można też po prostu odłączyć od energii lub fizycznie go zniszczyć.Tutaj mówimy jednak o czymś znacznie odmiennym. Autonomiczny system AI rozproszony w sieci nie ma konkretnej lokalizacji. Także jego oprogramowanie być może nie ma już ludzkich „bezpieczników”. Mało tego, taki system może się klonować w swych kopiach bezpieczeństwa, a lokalizacja tych klonów jest nieznana. To jest potencjalny potwór, który może zgotować ludzkości klęski tego rzędu jak opisywałem tutaj w „Czy czeka nas niewyobrażalny kataklizm?„
Ale nie tylko E. Musk ma obawy. Podobnie Bill Gates i Stephen Hawking stwierdzili, że jeśli uda nam się stworzyć autonomiczną Sztuczną Inteligencję, będzie ona potrafiła stale się udoskonalać. Nie tylko przewyższy poziom człowieka, ale osiągnie poziomy niewyobrażalnego rozwoju. Stanie się wspomnianą Superinteligencją, której motywów nie będziemy mogli pojąć.
Musk od dawna twierdzi, że najgorszą rzeczą, jaka mogłaby się wydarzyć, jeśli chodzi o AI, to gdyby kontrolę nad nią miała jedna korporacja lub jakakolwiek inna organizacja.
Takie narzędzia już są stosowane – inwigilacja, tworzenie sztucznej rzeczywistości pod klienta by kupował, zakusy podejmowania decyzji biznesowych za klienta w otoczce reklamy. W tym kontekście musimy być przygotowani na zmianę sposobu myślenia o cyberbezpieczeństwie – na zupełnie nowe klasy ataków polegające na zatruwaniu świadomości sztucznej inteligencji przez hakerów.
Wyobraźmy sobie, że atakujący w ten sposób preparuje dane dla algorytmu, żeby osłabić jego czułość, oswoić z czymś, co jest anomalią. Jaki może być efekt? Np. beztrosko akceptowane kredyty, zgoda na bardzo niską stawkę ubezpieczenia. Możliwi są automatyczni super-hakerzy obchodzący zabezpieczenia, lub którzy na podstawie zachowań klienta zanotowanych w bazie, po cichu zaczynają wykonywać za nas transakcje finansowe czy dokonywać zakupów. To nowa jakość. Same algorytmy sztucznej inteligencji są matematyczną czarną skrzynką nawet dla ich twórców, zatem wykrywanie i walka z tego typu atakami będzie niezwykle trudna i prawdopodobnie będzie wymagała… sztucznej inteligencji. Zatem zacznie się nowy „wyścig zbrojeń”, tak jak dotąd np. w sferze wirusów komputerowych. Nota bene i wirusy mogą być w ten sposób doskonalone.
Są oczywiście wielkie nadzieje i pozytywy AI, o których nieco dalej…
Tymczasem przypomnę ciekawy wykład – Jeremy Howard: Will Artificial Intelligence Be The Last Human Invention? (Czy sztuczna inteligencja będzie ostatnim ludzkim wynalazkiem?)
Nie tylko tytuł jest zastanawiający i prawdopodobnie trafny. Fascynujące ale i zatrważające, gdy uprzytamniamy sobie, że człowiek kiedyś … stanie się zbędny. Rozważania o deep learning przypomniały mi książkę „Golem XIV” St. Lema, który przewidział samo rozwijające się maszyny w 1981 r. (i wcześniej w innych miejscach, patrz także żartobliwe ale i filozoficzne „Bajki robotów” i inne nawiązania). Golem XIV upodobnił się do Boga, dając także odpowiedzi (lub ich unikając) na pytania filozoficzne.
Najwięcej aktualnych obaw budzą autonomiczne bronie podejmujące decyzje i akcje bez udziału człowieka. Bez rozterek i słabości – bezwzględnie wg zadanego algorytmu, albo – co gorsza – ucząc się zabijania i podejmując w tym zakresie autonomiczne (bez kontroli człowieka) decyzje.
Przykładem są automatyczne drony bojowe. Broń taka może być autonomiczna lokalnie lub sprzężona z siecią o dużo większych możliwościach. Militarystom od dawna marzy się mechaniczny żołnierz lub żołnierz-cyborg, ze skasowaną empatią, bezwzględnie posłuszny, z podniesiona agresją, wspomagany wzmacniaczami siły.
Powstała kampania „Stop zabójczym robotom” wzywająca przywódców świata do zakazu tworzenia takiej broni.
Była dyskusja na twitterze bazująca na wypowiedzi paru polityków i influencerów. W. Putin podobno powiedział, że naród, który będzie przodował w zastosowaniach AI będzie liderem świata. Zapewne i tutaj trwa ukryty wyścig zbrojeń. Ten wyścig może być zarzewiem kolejnej wojny światowej, aczkolwiek innej niż dotychczasowe. Z drugiej strony rozwój AI jest w sporej mierze nieprzewidywalny.
Musk apeluje by politycy pilnowali naukowców i nieodpowiedzialne ośrodki (władzy, wpływów, mafijne itp.) przed ryzykownymi eksperymentami i uzyskaniem monopolu. Apeluje też o wczesne (a nie „po szkodzie”) regulacje prawne. Przyczynkiem może być kodeks zasad, którymi ludzie powinni się kierować w pracach nad AI. Stworzyli go E. Musk i prof. Stephen Hawking oraz inni i nazwali zasadami z Asimolar. Jest ich 23, a dotyczą m.in. badań i etyki.
Z kolei M. Zuckerberg oświadczył że jest optymistą i nie rozumie wspomnianych niepokojów. Zaskakująco określił „negatywistów” nieodpowiedzialnymi. Z kolei ja nie rozumiem takiego lekkiego podejścia. A może chce w ten sposób ukryć swe własne prace nad AI? Facebook ma złe notowania jeśli chodzi o prywatność i inwigilacje.
Jednym z nowych twórczych pomysłów jest by nakazywać maszynom AI nie tyle co mają robić, ale czego od nich chcemy. Podobnie roboty z AI powinny mieć wbudowane algorytmy ostrożności, podobne do ludzkich oraz mechanizm zaufania do ludzi większy niż do „siebie” (?) (opinia naukowców z Berkeley University).
Musk wskazuje nie tylko na przyszłe zagrożenia ale i na te obecne, gdy AI wykorzystuje się do kontrolowania ludzi. Oprócz wspomnianej inwigilacji tworzy się zautomatyzowane procedury rozpoznawania rzekomych terrorystów po wyglądzie, co może być pożyteczne gdyby nie bazowanie właśnie na samym wyglądzie.
Podobnie cenzorowanie/odrzucanie rzekomych fake news. Znów – to może być pożyteczne o ile nie jest na bazie algorytmów nacechowanych ideologią, zwłaszcza w duchu „poprawności politycznej” lub pod potrzeby silniejszego „wielkiego brata”.
Ostatnio głośne jest na Facebooku banowanie obrazów Rubensa i podobnych klasyków malarstwa przedstawiających nagość, ale jednocześnie zdarza się przepuszczanie pornografii i obscenicznych obrazków np. z parad i ekscesów gejów. Niedokładny głupi algorytm czy tendencyjność?
Elon Musk znany jest ze swych programów kosmicznych, myśli o AI także w kontekście zwiększenia szans ludzi w starciu z obcą sztuczną inteligencją.
Sieci neuronowe – jedna z technologii AI, nie są nowym pomysłem, ale obecna moc obliczeniowa, zwłaszcza w sieciach komputerów, dają im nowe możliwości. Sztuczna inteligencja uczy się na przykładach. Jeśli np. chcemy ją nauczyć rozpoznawać jakieś zwierzę, nie musimy programować jego cech szczególnych. Po prostu trenujemy algorytm na setkach tysięcy zdjęć zwierząt, aż miliony matematycznych wskaźników wewnątrz algorytmu same ustawią się tak, żeby odróżniać dane zwierzę. Co doprowadziło do rozpoznania? Jaka jest wewnętrzna reprezentacja cech typowych dla gatunku wewnątrz algorytmu? Tego niestety nie wiemy.
AI rodzi nieoczekiwane pomysły o bezprecedensowych skutkach społecznych. Przykładowo, naukowcy z Nowej Zelandii chcą stworzyć pierwszego na świecie polityka AI – całkowicie wolnego od uprzedzeń, zdolnego do optymalnych decyzji i odpowiadającego na pytania wyborców.
Arabia Sudyjska nadała obywatelstwo robotowi Sophia. Zwrócono uwagę że ten żeński android ma więcej praw niż obywatelki tego kraju.
Słyszałem że podobne obywatelstwo nadała też pewnemu robotowi Holandia.
Przejdźmy krótko do pozytywów jakie AI ma do zaoferowania.
Niewątpliwie ta technologia będzie miała wpływ na wszystkie niemal dziedziny życia.
Od systemów zarządzania (w skali nawet globalnej – ale to pachnie NWO, czyli znów trzeba ostrożności i mądrości), po rozproszone, w skali pojedynczych przedmiotów, inteligentne gadżety.
Głośne są zastosowania w samochodach autonomicznych, w czym spory wkład ma właśnie E. Musk (Tesla).
Chodzi o autonomiczne pojazdy, które same podejmują decyzje, wybierają drogę i poruszają się bez udziału kierowcy. To jeszcze nie jest doskonałe – zdarzają się pojazdy, które mylą czerwone światło z zielonym czy same się kradną, ponieważ np. haker wyznaczył inne miejsce jako punkt docelowy garażowania niż podane przez właściciela. Są i zagrożenia życia – żaden z producentów samochodów autonomicznych nie chce być tym, którego pojazd na skutek manipulacji bazy wiedzy przez hakera przestanie dostrzegać przeszkody na drodze.
Dużą dziedziną dla AI jest robotyka. Rosną możliwości różnych robotów – zakres działań, szybkość, precyzja, eliminacja błędów.
Istnieją już prawie zautomatyzowane fabryki (np. fabryka akumulatorów do samochodów elektrycznych Muska) oraz automatyczne linie produkcyjne.
Otwierają się olbrzymie zastosowania badawcze.
Zwłaszcza tam, gdzie zasób danych do obrobienia przekraczał dotąd typowe możliwości obliczeniowe. Jest nadzieja, że dzięki sztucznej inteligencji będzie w końcu możliwe trafne przewidywanie pogody lub trzęsień ziemi.
Podobnie w diagnostyce medycznej, przykładowo by w porę wykryć nowotwory na podstawie wyników obrazowania diagnostycznego i innych wskaźników.
W zakresie medycyny i psychologii – ich humanistycznego aspektu – na pewno nie chcielibyśmy zostać pariasem nowej technokratycznej rzeczywistości, raczej móc panować nad maszynami, umieć się z nimi porozumiewać.
E. Musk stworzył firmę Neuralink, która pracuje nad technologią pod nazwą „neural lace” – ma ona pozwolić na zamianę ludzkich myśli w polecenia zrozumiałe dla komputera i de facto umożliwić połączenie ludzkiego mózgu z komputerem. Rozważa ona aplikacje medyczne zwłaszcza dla diagnostyki mózgu, wzmocnienia jego możliwości oraz zwalczania coraz powszechniejszych dolegliwości związanych z mózgiem jak epilepsje, depresja, udar oraz wspomaganie operacji, wbudowywanie implantów; oczekuje się rozwiązań do 2021 r.
W tym miejscu należy wspomnieć o kierunku nauki jakim jest Transhumanizm. Ray Kurzweil, jeden z pionierów transhumanizmu, konsekwentnie propaguje eksperymenty nad cyborgizacją ludzi, wizją ‚inteligentnych chmur’, itp. technologii. Zaczęło się od poszukiwania dróg do nieśmiertelności człowieka, np. przez stopniowe zastępowanie elementów jego ciała przez sztuczne mechanizmy. Jak dla mnie – zatrważająca wizja, lansowana głównie przez psychopatów (nie tylko moja opinia), ponieważ uważam transhumanizm za co najmniej chybiony, antyhumanistyczny
koncept – przez brak pełnego zrozumienia życia, a przez to bardzo niebezpieczny i nieetyczny.
Także dlatego, że inteligencja jaką przypisujemy do sztucznej inteligencji to tylko ułamek ludzkiej inteligencji, na którą składa się (wg T. Buzana): i ta emocjonalna, duchowa, twórcza, społeczna, zmysłowa i fizyczna, liczbowa, przestrzenna, werbalna…
Te sprawy opisywała już przed 20 laty popularna książka Jamesa Trefil’a „Czy jesteśmy niepowtarzalni”, pokazując pryncypialną różnicę między człowiekiem i maszynami. Ale to jeszcze bardziej złożony problem, którym tutaj się nie zajmiemy.
Superczłowiek-cyborg kusi siłą i sprawnością, ale pozbawiony protez (np. egzoszkieletu) będzie jeszcze słabszy niż przedtem. Jeśli już ulec tej pokusie, to lepiej gdyby dokonało się to przez lepsze odżywianie bez trucizn, oczyszczanie organizmu, podniesienie jego biologicznej odporności i nawyki sprzyjające zdrowiu. Jest też obiecujące pole dla zdolności na bazie ukrytych jeszcze lub nie docenianych sił umysłu. Mamy wiele nie wykorzystanych możliwości naturalnych.
Dziś o AI mówi się głównie w kontekście pracy, którą maszyny mają nam zabrać. Wydaje się, że to perspektywa odległa, ale to już się częściowo dzieje. Np. w wielu stanach USA klienci potrzebujący porady prawnej mogą skorzystać z chatbota, czyli… robotycznego prawnika, który odpowiada na pytania natury prawnej.
Na poziomie obywatela sztuczna inteligencja określi zdolność kredytową, wyznaczy ryzyko ubezpieczeniowe czy zoptymalizuje inwestycje naszego kapitału, itp.
Osobiście podzielam pogląd, że nie tyle fetyszyzowane bezrobocie jest problemem, bo w miarę postępującej automatyzacji produkcji i szeregu usług i tak to nastąpi, co zapewnienie środków utrzymania i godziwego życia dla członków przyszłego społeczeństwa.
Na koniec – żartobliwie. Może to i dobrze, że AI w wkroczy do naszego życia, zwłaszcza dla obiektywizacji polityki, bo wyraźnie wielu ludziom, politykom i publicystom … brakuje inteligencji. Oby jednak AI nie wyeliminowała całkowicie naszych unikalnych ludzkich cech, nawet z popełnianiem błędów, na których się uczymy i które wnoszą w nasze życie niespodzianki.
Powyższy krótki przegląd nie uwzględnia wielu aspektów już znanych i rozważanych, a wspomniana nieprzewidywalność AI powoduje, że prawdopodobnie także takich, których dziś nawet nie przeczuwamy…
Dodaj do ulubionych:
Polubienie Wczytywanie…