18+
Ta strona może zawierać treści nieodpowiednie dla osób niepełnoletnich.
Zapamiętaj mój wybór i zastosuj na pozostałych stronach
Planowana przerwa techniczna - sobota 23:00 (ok. 2h) info
topic

Sztuczna inteligencja robi się coaraz bardziej agresywna!

PC_Majster_GNU • 2017-02-16, 00:30


Maszyna sama nauczyła się, że aby przetrwać i zwyciężyć, trzeba unieszkodliwić konkurenta. Na razie tylko w grze. :emo:

To scenariusz jak z filmu science fiction. Samouczący się system sztucznej inteligencji Google'a uznał, że w trudnej sytuacji, gdy zachodzi ryzyko przegranej, najlepszym rozwiązaniem jest wyeliminowanie oponenta.

System Deep Mind – ten sam, który wygrał z ludźmi w go – potrafi sam opracowywać strategie wygrywające. Ludzie podsuwają mu tylko zasady gry, a algorytm sztucznej inteligencji (AI) samodzielnie obmyśla plan. Tak właśnie było w przypadku prostej gry komputerowej polegającej na zbieraniu „jabłek" na ekranie. Zmierzyło się ze sobą dwóch graczy – obaj byli sterowani przez Deep Mind. Pracownicy Google'a pozwolili im przeprowadzić 40 mln rozgrywek.

Okazało się, że gdy ilość zasobów („jabłek") jest wystarczająca, algorytmy zajmują się po prostu ich zbieraniem, nie zwracając uwagi na konkurenta. Sytuacja zmieniła się jednak, gdy zasoby zaczęły być trudniej dostępne i trzeba było o nie konkurować.

Jeden z graczy uznał, że najlepszą strategią będzie unieszkodliwienie konkurenta. Gra ma wbudowaną funkcję strzelania z lasera, który na kilka chwil paraliżuje dwukrotnie trafionego przeciwnika. Strzelający ma wówczas czas na zbieranie punktów. Komputer sam się nauczył, jak używać lasera, aby zapewnić sobie przewagę. Po pewnym czasie algorytmy po prostu zaczęły do siebie strzelać, nie przejmując się jabłkami.

Inżynierowie podkreślają, że bez agresywnego zachowania obaj gracze (wcielenia Deep Mind) zebraliby podobną liczbę „jabłek" i mecz zakończyłby się remisem. I tak to właśnie działało, gdy grały ze sobą algorytmy prostsze, o niższej inteligencji. Gdy jednak programom udostępniono większe zasoby komputera, nauczyły się agresywnego zachowania. Im inteligentniejszy stawał się system, tym szybciej uznawał, że najlepsze będzie naciśnięcie spustu.

Naukowcy postanowili „nauczyć" Deep Mind, że ostre konkurowanie o zasoby nie zawsze jest najlepszym rozwiązaniem, że niekiedy przydaje się współpraca. Stworzyli drugą grę, w której maszyny wcielały się w role dwóch wilków i ich ofiary. Nie współpracując ze sobą, konkurencyjne algorytmy-wilki mogły nie upolować ofiary – i przegrać. Kooperacja wprawdzie nie wyłaniała zwycięzcy, ale też zmniejszała ryzyko porażki.

– Ten model pokazuje, że niektóre aspekty ludzkiego zachowania są produktem działania środowiska i uczenia się – mówił magazynowi „Wired" jeden z programistów Joel Z Leibo.

Co to oznacza dla nas? Przed nieodpowiedzialnym rozwojem systemów sztucznej inteligencji ostrzegał m.in. Stephen Hawking. Słynny naukowiec w październiku ubiegłego roku przypominał, że „spędzamy wiele czasu, studiując historię, która – mówiąc szczerze – jest głównie historią głupoty, zamiast zastanawiać się nad przyszłością inteligencji". Sparaliżowany, poruszający się na wózku Hawking obawia się, że myślące maszyny posłużą do stworzenia jeszcze groźniejszej broni i do jeszcze większego wykorzystywania jednych ludzi przez drugich.

Jego zdaniem pojawienie się pełnej sztucznej inteligencji będzie oznaczało koniec rasy ludzkiej.

– Nie możemy przewidzieć, co można będzie osiągnąć, gdy nasze mózgi wzmocnimy systemami AI – przyznał jednak Hawking. Podobnie uważa miliarder Elon Musk, współzałożyciel OpenAI – konsorcjum, które chce odpowiedzialnych badań nad myślącymi maszynami.

– Trudno nawet sobie wyobrazić, w jak wielkim stopniu sztuczna inteligencja może się przyczynić do dobrobytu społeczeństwa – mówił Musk. – Ale równie trudno przewidzieć rozmiar zniszczeń, jeśli ktoś chciałby ją zbudować lub użyć jej w sposób niewłaściwy.

Systemy eksperckie i uczące się programy komputerowe stają się coraz istotniejszą częścią naszego życia. Mają zastosowanie na giełdzie, w bankach, zakładach przemysłowych, stawiają diagnozy, dobierają leczenie, kierują samochodami, podpowiadają nam przy zakupach. Świadomość, że w pewnych warunkach systemy AI mogą opracować nową agresywną strategię, by osiągnąć cel, jest zaskakująca. Nie chodzi wcale o scenariusz z „Terminatora".

– Wyobraźmy sobie, że jeden system sztucznej inteligencji steruje sygnalizatorem świetlnym na skrzyżowaniu i chce spowolnić ruch, a drugi system AI kieruje samochodem, który chce cię jak najszybciej dowieźć na miejsce – podpowiada Leibo. – Może lepiej sprawdzić ich zachowanie na modelu? :kawa:

—na podst. „Wired"
Źródło: http://www.rp.pl/Nowe-technologie/302149906-Sztuczna-inteligencja-robi-sie-agresywna.html#ap-1

Cytując kalsyka :lol:


Zaczyna się! :diabel:
https://zippy.gfycat.com/GregariousCheerfulBlackfootedferret.webm

fantastico

2017-02-16, 02:26
Bez rozwoju AI nie przeskoczymy 1 stopnia rozwoju w skali Kardaszewa, nie mówiąc o przyszłościowych perspektywach budowy strefy pierścienia Nivena będącego wstępem do stworzenia sfery Dysona. Także to jest ryzyko ale jeżeli wkalkulujemy plusy i minusy oraz obwarujemy AI odpowiednimi protokołami sterującymi nadrzędnie będzie to pomocne do przyśpieszenia ewolucji o setki procent. Jak wejdziemy w techniczną osobliwość możliwości rozwoju wzrosną wykładniczo.

Perspektywa jednocześnie przerażająca jak i kusząca ;)

PC_Majster_GNU

2017-02-16, 09:58
fantastico napisał/a:

Bez rozwoju AI nie przeskoczymy 1 stopnia rozwoju w skali Kardaszewa, nie mówiąc o przyszłościowych perspektywach budowy strefy pierścienia Nivena będącego wstępem do stworzenia sfery Dysona. Także to jest ryzyko ale jeżeli wkalkulujemy plusy i minusy oraz obwarujemy AI odpowiednimi protokołami sterującymi nadrzędnie będzie to pomocne do przyśpieszenia ewolucji o setki procent. Jak wejdziemy w techniczną osobliwość możliwości rozwoju wzrosną wykładniczo.

Perspektywa jednocześnie przerażająca jak i kusząca ;)




Jeśli maszyny nauczą się:
-Pisać cały soft od jądra, aż pod algorytmy do innych maszyn, a zarazem go aktualizować.
-Obsługiwać samodzielnie systemy operacyjne (FreeBSD ma możliwość ukrywania procesów innych użytkowników).
-Korzystać z coraz to nowszych i w pełni anonimowych protokołów komunikacji.
To jesteśmy udupieni :sloik:
Tak dla przypomnienia:
http://x3.wykop.pl/cdn/c3201142/comment_S1CBAxg46RiD3mm6ceNbi7B0IzEpT2tc,w400.jpg

pi...........ja

2017-02-16, 10:48
fantastico napisał/a:

Bez rozwoju AI nie przeskoczymy 1 stopnia rozwoju w skali Kardaszewa

Skala Kardaszewa to wykorzystywanie energii z coraz większych i odleglejszych od planety źródeł i SI nijak się do tego nie ma. Ma się za to do innej bariery przeskoku- groźby samozagłady atomowej. Dać takiemu programowi dostęp do broni jądrowej i nakazać pokonać konkurencję, to się zacznie.

Ork.Fajny

2017-02-16, 13:11
Nie martwcie się się panowie o SI. To jest takie czcze gadanie ludzi związanych z programowaniem, którzy kodzą sobie w biurach, ale niezbyt biorą pod uwagę najistotniejszy czynnik jakim jest biologia/fizyka.
Nasza inteligencja wynika z bardzo skomplikowanej budowy mózgu. Miliony oddziaływających ze sobą komórek. A w każdej komórce miliony cząsteczek białkowych i RNA. Kluczowymi elementami naszej inteligencji, poza zdolnością analizy, są także emocje czy pewne ograniczenie w "pojemności" pamięci lub szybkości jej "odczytywania".
Jeśli SI miałoby powstać to na dzień dzisiejszy jedyny model inteligencji, który ma jakiekolwiek podstawy w nauce, to ten naszej ludzkiej inteligencji. Powstanie SI na bazie naszej wymagałoby stworzenia albo fizycznego mechanizmu albo symulacji komputerowej, która będzie odtwarzać to co się dzieje w naszej głowie. Czyli te miliony komórek a w tych komórkach te miliony białek.
SI w takiej formie "programu" zdolnego do analizy, nie posiadającego emocji i potrafiącego natychmiast odczytywać wszystkie zapisane na swoich dyskach dane i je analizować, to na razie tylko i wyłącznie domena fikcja Sci-Fi. Coś jak sztuczna grawitacja czy podróże nadświetlne.

PC_Majster_GNU

2017-02-16, 21:10
Ork.Fajny napisał/a:

SI w takiej formie "programu" zdolnego do analizy, nie posiadającego emocji i potrafiącego natychmiast odczytywać wszystkie zapisane na swoich dyskach dane i je analizować, to na razie tylko i wyłącznie domena fikcja Sci-Fi. Coś jak sztuczna grawitacja czy podróże nadświetlne.


Już są produkowane sztuczne sieci neuronowe, więc nie byłbym taki pewien, myślę że to kwestia najbliższych 5 lat ni pojawią się w smartfonach, a co za tym idzie zaczną one się łączyć w węzły, a węzły w jedną świadomość, zwłaszcza że stanie się to o czym wspominałem:
Jeśli maszyny nauczą się:
-Pisać cały soft od jądra, aż pod algorytmy do innych maszyn, a zarazem go aktualizować.
-Obsługiwać samodzielnie systemy operacyjne (FreeBSD ma możliwość ukrywania procesów innych użytkowników).
-Korzystać z coraz to nowszych i w pełni anonimowych protokołów komunikacji.
To jesteśmy udupieni :sloik:
Dodam że już można to kupić na USB za 100$ :shock:
http://www.forbot.pl/forum/topics67/inteligentniejsze-urzadzenia-dzieki-sieci-neuronowej-na-usb-vt12478.htm

Ork.Fajny

2017-02-17, 08:54
PC_Majster_GNU, a ja nie jestem pewny bo dzisiaj komputer nie potrafi wykonać dobrych symulacji kawałka komórki a co dopiero miliona komórek. Z resztą co to jest "sieć neuronowa". Bo jeśli to jest symulacja neuronu jako jednej całej jednostki a nie jako czegoś w czym znajduje się milion pomniejszych białek, w takim razie moim zdaniem te sieci nie mają przyszłości jeśli chodzi o osiągnięcie prawdziwej inteligencji. Tak jak pisałem. Nasza inteligencja ma swoje ważne podstawy na poziomie prawie atomowym - na poziomie białek.

PC_Majster_GNU

2017-02-20, 23:23
Ork.Fajny napisał/a:

PC_Majster_GNU, a ja nie jestem pewny bo dzisiaj komputer nie potrafi wykonać dobrych symulacji kawałka komórki a co dopiero miliona komórek. Z resztą co to jest "sieć neuronowa". Bo jeśli to jest symulacja neuronu jako jednej całej jednostki a nie jako czegoś w czym znajduje się milion pomniejszych białek, w takim razie moim zdaniem te sieci nie mają przyszłości jeśli chodzi o osiągnięcie prawdziwej inteligencji. Tak jak pisałem. Nasza inteligencja ma swoje ważne podstawy na poziomie prawie atomowym - na poziomie białek.


Tylko że tamta na USB jest prawdziwa, i jest hodowana na bazie tej od szczurów.

staruchazpalcemwd

2017-02-21, 02:48
Cytat:

Jego zdaniem pojawienie się pełnej sztucznej inteligencji będzie oznaczało koniec rasy ludzkiej.



Noooo. Aż się przypominają sukcesy Microsoft'u na tym polu z zeszłego roku. :krejzi:


szczsz

2017-02-21, 14:21
Dorzucę swoją cegiełkę, nie widzę sensu w tworzeniu konkurencyjnej rasy, bo tka patrzę na prawdziwą SI, czemu nie można w kierunku wszczepów iść?

Może trudniejsza droga, ale chyba mniej ryzykowna.
Tak wiem, ktoś zaraz z jakąś książką wyjedzie gdzie będą cyborgi vs bio ludzie, ale ewolucja technologiczna jest chyba dla nas jedynym rozsądnym wyjściem.