FacebookTwitterPinterestGoogle+Share

Narodziny sztucznej inteligencji

Narodziny sztucznej inteligencji

Elon Musk – twórca elektrycznej motoryzacji w Stanach – najbardziej znany geek wśród biznesmenów i biznesmen wśród geeków, w ostatnim czasie dość często krytykuje pomysły związane z rozwojem sztucznej inteligencji, nie przebierając często w słowach i jasno wyrażając swoje obawy związane z rozwojem tej technologii.

 

Przykładem może być ostra wypowiedź Elona Muska o innym przesiębiorcy, CEO Facebooka  Marku Zuckenbergu, który nie ukrywa entuzjazmu jeśli chodzi o rozwoju sztucznej inteligencji. W swoim tweecie, Elon Musk  określił szefa Faceboka jako osobę o ograniczonych możliwościach jeśli chodzi o pojmowanie tego czym w ogóle jest AI (ang. artificial intelligence – sztuczna inteligencja) i może być w przyszłości. Nie byłoby może w tym nic dziwnego, bo krytyków rozwoju sztucznej inteligencji jest wielu, gdyby nie fakt, że Musk również rozwija swoje firmy i projekty w oparciu o tę technologię.

Teraźniejszość dogoniła przyszłość

Jest tyle innych problemów na świecie, o które moglibyśmy się dziś spierać, jednak sztuczna inteligencja rozpala wyobraźnię i strach podobnie jak kiedyś energia atomowa. Powód jest dość prosty. Już teraz tworzymy programy i systemy, które uczą się na swoich błędach i same podejmują decyzje bez ingerencji człowieka. Sztuczna inteligencja, o którą spierają się Musk i Zuckenberg dotyczy głównie programów komputerowych, które są wstanie podejmować decyzje bez możliwości poznania wszystkich koniecznych danych oraz „myśleć?logicznie i racjonalnie – przynajmniej według naszych standardów. Krótko mówiąc, działać w zbliżony sposób do ludzkiego mózgu, a w wielu aspektach nawet lepiej. Takie działanie maszyn czy zaawansowanych programów rozbudza wyobraźnię i budzi podziw równie często jak obawy i strach. Nie bez przyczyny. Sami programiści, tworzący wysokorozwinięte algorytmy, nie do końca wiedzą dlaczego zaawansowane programy AI podejmują takie a nie inne decyzje, które jednak w większości przypadków są trafne.

Hawking wieszczy, Musk ratuje

Hawking to nie tylko znany i wybitny fizyk teoretyczny, ale również osoba, która wielokrotnie w swoim życiu zabierała publicznie głos na temat spraw dotyczących świata. Nie inaczej też jest w przypadku sztucznej inteligencji. Nie tylko zabrał głos w tej sprawie, ale również stworzył instytut zajmujący się badaniami nad zagadnieniami związanymi z AI. Głos Howking’a jest jednoznaczny i bardzo krytyczny względem tej technologii.

?em>Rozwój pełnej, sztucznej inteligencji może doprowadzić do wyginięcia rodzaju ludzkiego”

Kilka lat później – przy okazji inauguracji Leverhulme Centre for the Future of Intelligence, dodał, że AI może osiągnąć ten sam poziom rozwoju umysłowego co ludzie, a nawet przewyższyć nas swoimi zdolnościami. Hawking podkreślił, że sztuczna inteligencja, może być zarówno błogosławieństwem dla ludzkości eliminując ubóstwo, choroby, zmiany klimatyczne czy po prostu ludzkie błędy, ale tak samo może być zagrożeniem w niepowołanych rękach, stając się autonomiczną bronią, wywołując kryzysy gospodarcze, by ostatecznie wejść w otwarty konflikt z ludzkością w walce o zasoby planety.

Podobnego zdania jest również Musk, przedsiębiorca, którego część przedsięwzięć jest właśnie oparta na rozwiązaniach maszynowego uczenia. Jego firma – Tesla Motors – jako pierwsza na świecie seryjnie sprzedaje samochody, które mają wystarczająco zaawansowane oprogramowanie, by prowadzić pojazdy po normalnych drogach bez udziału człowieka. Musk jest również fundatorem takich projektów jak OpenAI i Neuralink, które mają rozwijać technologię sztucznej inteligencji. Pomimo tego twórca Tesli nie jest wcale przekonany o pokojowej egzystencji człowieka i AI w przyszłości. Dlatego już teraz stara się przeciwdziałać ewentualnym konsekwencjom związanym z rozwojem tej technologii.

 

?/em>Dopóki ludzie nie zobaczą robotów, które chodzą po ulicach i zabijają innych ludzi?nie będą wiedzieli jak mają reagować, ponieważ wydaje im się to takie eteryczne (temat sztucznej inteligencji). AI to rzadki przypadek, kiedy moim zdaniem powinniśmy być proaktywni w ustanawianiu regulacji, a nie reaktywni. Dlatego, że moim zdaniem z reaktywną postawą dojdziemy do momentu, w którym będzie już za późno.?/em>

 

Po tych słowach naprawdę zawrzało w świecie nowych technologii. Musk finansuje i współfinansuje startupy zaangażowane w rozwój AI. Czerpie garściami z tej technologii. Wykorzystuje tę wiedzę w SpaceX i Tesla Motors, a teraz wieszczy zagładę ludzkości z powodu sztucznej inteligencji? Wydaje się jednak, że Musk wie, co robi. Oba projekty służą nie tylko rozwojowi zaawansowanych algorytmów i robotów, ale przede wszystkim propagowaniu technologii AI, by była dostępna dla każdego, kto zechce jej użyć. Według Muska zagrożeniem jest przede wszystkim monopolizacja sztucznej inteligencji przez kilka najbardziej rozwiniętych państw i korporacji, które w ten sposób mogą faktycznie mieć pełną kontrolę nad całym światem, wykorzystując sztuczną inteligencję do manipulacji, kontroli i dominacji w swoich obszarach działania. Ramy prawne mają dotyczyć przede wszystkim ludzi, którzy mają dostęp do tej technologii i potrafią ją zastosować, a nie samych inteligentnych programów. Najlepszą metodą jest zwiększenie liczby ośrodków rozwijających sztuczną inteligencję, tak by nikt nie miał dominującej pozycji w tej dziedzinie. Daje to spore szanse, że nikt nie odważy się użyć sztucznej inteligencji przeciwko ludziom, skoro istnieje wiele ośrodków, które mogą zneutralizować takie działania.

Duch w maszynie

Rozwój sztucznej inteligencji sięga lat 50-tych XX w. Współczesne programy, oparte na technologii AI są już dziś niezwykle… inteligentne. Już w 1997 roku Deep Blue wygrał w szachy z mistrzem świata Garri Kasparowem, nie dając żadnych szans w tej królewskiej grze rosyjskiemu arcymistrzowi. 20 lat później maszyna pokonała człowieka w go, która jest grą znacznie trudniejszą niż szachy. Mistrzostwo w cesarskiej grze osiągnął program napisany przez programistów Google, który uczył się na swoich błędach i samodzielnie rozwijał swój algorytm tak, by być coraz lepszym. Nie tylko gry logiczne są testem umiejętności zaawansowanych algorytmów. Alan Turing w latach 50-tych ubiegłego wieku skonstruował test, który sprawdza zdolność sztucznej inteligencji do posługiwania się językiem naturalnym. Program poddawany testowi musiał przekonać przynajmniej 30% badanych, że jest człowiekiem. Trzy lata temu dwóch programistów: Władimir Wiesełow i Eugen Demczenko stworzyło aplikację, która przekonała 33% badanych, że jest 13-letnim chłopcem z Odessy. Nie mówimy o udawaniu 4-5 letniego dziecka, lecz chłopca, który w tym wieku jest niemal w pełni rozwiniętym człowiekiem. Boty – bo tak nazywane są programy, które rozmawiają z ludźmi – najczęściej za pomocą komunikatorów, są dziś powszechnie stosowane na stronach internetowych wielu firm, zamiast prawdziwej obsługi klienta. Facebook rozwija projekt swojego bota, który ma pomóc firmom komunikować się z klientami korzystającymi z Facebooka i Messengera. Nieoficjalnie mówi się również o wykorzystywaniu botów przez policję do rozpoznawania pedofilów w sieci.

Medyczny kod

Zabawa, obsługa czy autonomiczne samochody nie są jedynymi zagadnieniami współczesnych poszukiwań w świecie technologii. Obecnie testuje się specjalnie zaprojektowane aplikacje do badania medycznych przypadków, które potrafią analizować tysiące badań i przypadków, ucząc się w ten sposób i tworząc własne wzorce „percepcji?  Program – „Deep Patient?- testowany po raz pierwszy w nowojorskich szpitalach, zaskoczył nie tylko lekarzy, ale nawet samych twórców tego oprogramowania.

Deep Patient jest przykładem programu, który sam się programuje. Dostaje zadanie i bez żadnych dodatkowych wskazówek ze strony twórców, przeszukuje dostępne zasoby, zbiera informacje i porządkuje je w taki sposób, by wyciągnąć wnioski i wykonać zadanie.

W miarę rozwoju aplikacji, która sama potrafi dopisać sobie nowe fragmenty kodu, rozwijając swoje umiejętności analizy medycznej, program doszedł do poziomu, w którym twórcy przestali rozumieć wszystkie podejmowane przez aplikację decyzje. Program nie tylko nauczył się wykonywać zadanie, ale wykonał je lepiej niż ludzcy lekarze, stawiając zdecydowanie bardziej trafne diagnozy np. dotyczące rozpoznania tak trudnych do zdiagnozowania chorób jak schizofrenia.

Głębsze myślenie maszyny  

Do tej pory niemal wszystkie próby stworzenia autonomicznego pojazdu, sprowadzają się do tego, że każda czynność, każdy manewr, każda sytuacja, którą przewidzieli twórcy oprogramowania, jest wpisywana do programu. Następnie tworzony jest algorytm, który ma za zadanie rozwiązać wcześniej opisaną sytuację. Tak samo działa każdy system operacyjny, każda aplikacja. Jeżeli A to B, jeżeli B to C itd. Wszystko musi wcześniej przygotować człowiek. Jeśli występuję jakiś błąd lub nieprzewidziana sytuacja w katalogu „zdarzeń?wówczas błąd musi być naprawiony przez człowieka. Firma Nivida – znana głównie z produkcji procesorów graficznych, również zaangażowała się w rozwój autonomicznych pojazdów. W przeciwieństwie do Googla czy Tesli, ich samochód nie jest programowany. Ma jedynie zakodowane podstawy. Reszty uczy się sam, obserwując zachowania innych samochodów na drodze w codziennych sytuacjach.

Według autorów rozwiązania, w ten sposób znacznie szybciej i skuteczniej opanuje „algorytm?zachowań na drodze niż przy mozolnym programowaniu każdego manewru i każdego zdarzenia na ulicy. Pomysł jest ciekawy i ma wiele możliwości wykorzystania w innych dziedzinach. Miejmy tylko nadzieję, że nie nauczy się wyprzedzać na trzeciego…

Prawdziwe zagrożenie

To, co tak naprawdę jest niebezpieczne w przypadku sztucznej inteligencji to sami ludzie. Łatwo sobie niestety wyobrazić w jaki sposób takie oprogramowanie, włamuje się do rządowych baz danych, jest wykorzystywane do szpiegostwa przemysłowego czy siania chaosu na giełdach papierów wartościowych, by mogli zarobić spekulanci. Jeszcze łatwiej wyobrazić sobie udział inteligentnych maszyn w działaniach wojskowych, gdzie bez skrupułów, bez obciążeń psychicznych, bez rodziny robot – żołnierz wykona każdy rozkaz.

To, o czym mówi Musk jest realnym zagrożeniem, ale i szansą dla ludzkości. Spróbujmy choć raz w swojej historii użyć więcej wyobraźni i empatii niż chciwości, i przeciwdziałać potencjalnym zagrożeniom tworząc bezpieczne prawne ramy dla rozwoju tej technologii, bo w innym przypadku może być za późno na gaszenie pożarów, gdy I Robot wymknie się spod kontroli.

Wojciech Bednarek / twojaanglia.eu

 

FacebookTwitterPinterestGoogle+Share