18+
Ta strona może zawierać treści nieodpowiednie dla osób niepełnoletnich.
Zapamiętaj mój wybór i zastosuj na pozostałych stronach
topic

SI wynalazła ludobójstwo i wojnę

PC_Majster_GNU • 2017-09-24, 19:37
Boty w wirtualnym społeczeństwie zaczęły urządzać czystki etniczne i toczyć bratobójcze wojny. Ich zachowanie przypomina historię ludzkości.

Naukowcy z Carnegie Mellon stworzyli symulację opartą na „dylemacie więźnia”, od lat znanym modelu teorii gier. Wirtualne boty żyły w wyimaginowanym społeczeństwie i komunikowały się ze sobą. Mogły albo ze sobą współpracować, albo oszukiwać. Współpraca dawała korzyść obu stronom, jednak jeśli któremuś agentowi udało się oszukać oponenta – zyskiwał zdecydowanie więcej. Najbardziej skuteczne jednostki kopiowano i przechodziły do kolejnej tury. Wprowadzono też niewielką możliwość pomyłki.


Cytat:

Boty otrzymywały nagrodę jeśli współpracowały oraz jeśli udawało im się oszukać przeciwnika (fot. Nicky Case)



Model ma zastosowanie w codziennym życiu. Podobnie zachowują się ludzie, kiedy stają przed dylematem, czy chcą przystąpić do strajku, wziąć udział w zmowie cenowej, albo zaangażować się w pracę nad różnymi projektami. Wirtualne maszyny stawały przed podobnymi dylematami.

Badacze spodziewali się zaobserwować najlepszą strategię: wet za wet. Polega ona na kopiowaniu zachowań przeciwnika. Jeśli ktoś traktuje Cię dobrze – odwdzięcz się. Jeśli ktoś Cię oszuka – oszukaj i jego. Ten sposób zachowania faktycznie dominował w wirtualnej społeczności botów. Jednak po kilkuset generacjach, ku zaskoczeniu naukowców, maszyny przestawały współpracować i zaczynały toczyć między sobą cykliczne wojny .


Cytat:

Po kilkuset turach pojawiał się zaznaczony na zielono czas pokoju, a zaraz potem wyniszczające wojny –
żółty kolor (fot. Simon Dedeo)



Okazało się, że Sztuczna Inteligencja rozpoznawała swoje własne idealne kopie, traktując każde odstępstwo jako przyczynek do ataku. W ten sposób SI wynalazła „botobójstwo” i wyniszczającą wojnę, w której ginęły również te maszyny, które stosowały najbardziej optymalną strategię „wet za wet”. Po tym okresie pozostawało kilka maszyn, które zaczynały ze sobą współpracować przez kolejne kilkaset pokoleń, aż w końcu losowe błędy osiągały poziom krytyczny co znowu doprowadzało do wszczęcia bratobójczych walk.


Cytat:

Boty wypracowywały różne strategie, z których najbardziej efektywna była „wet za wet” (fot. Nicky Case)



Strategia stosowana przez Sztuczną Inteligencję przypomina zachowanie ludzi znane chociażby ze „Starego Testamentu”:
Cytat:


Następnie Gileadczycy odcięli Efraimitom drogę do brodów Jordanu, a gdy zbiegowie z Efraima mówili: „Pozwól mi przejść”, Gileadczycy zadawali pytanie: „Czy jesteś Efraimitą?” – A kiedy odpowiadał: „Nie”, wówczas nakazywali mu: „Wymówże więc Szibbolet”. Jeśli rzekł: „Sibbolet” – a inaczej nie mógł wymówić – chwytali go i zabijali u brodu Jordanu. Tak zginęło przy tej sposobności czterdzieści dwa tysiące Efraimitów.
(„Księga Sędziów”; „Biblia Tysiąclecia”):



W wielu konfliktach zbrojnych to zachowanie wielokrotnie się powtarzało. Podczas wojny domowej w Finlandii w 1918 roku, Finowie rozpoznawali rosyjskich szpiegów przez to, że nie potrafili wymówić słowa „yksi”, co oznaczało „jeden”. Ten sposób rozpoznawania wrogów wypracowała sobie również Sztuczna Inteligencja w wirtualnym świecie, czego efekty nie prowadzą do pozytywnych wniosków.

Źródło: http://www.chip.pl/2017/09/si-wynalazla-ludobojstwo-wojne/

ho...........zo

2017-09-25, 09:28
Może do prawdziwej SI im daleko, ale ode mnie te maszyny na pewno są mądrzejsze.

overgod

2017-09-25, 10:14
Współzawodnictwo między maszynami ciekawie opisał Stanisław Lem w Niezwyciężonym. Serdecznie polecam.

pi...........ja

2017-09-25, 10:53
A niby co miały odkryć zaprojektowane przez ludzi boty?

Dr0mg

2017-09-25, 11:53
po pierwsze 1 zasada robotyki, po drugie blaszaki chója zrobią bo nie mają rąk.. ktoś powie że rozjebią elektrownie atomowe hmm a niby jak się z nimi podłączą skoro one mają wewnętrzną sieć odciętą od świata a nic nie można włączyć /wyłączyć zdalnie tylko trzeba wszystko robić ręcznie? to samo atomowe bazy wojskowe.. gdyby było inaczej to już by jakiś pojeb próbował, odcinając prąd same zginą więc to się mija z celem. zaraz któryś wyskoczy z terminatorem ok dawaj, wystarczy EMP jak nie to przepięcie i po sprawie.

is...........ay

2017-09-25, 15:47
Komentarze jeszcze durniejsze od artykułu. :krejzi:

PC_Majster_GNU

2017-09-25, 17:22
Cytat:

po pierwsze 1 zasada robotyki, po drugie blaszaki chója zrobią bo nie mają rąk.. ktoś powie że rozjebią elektrownie atomowe hmm a niby jak się z nimi podłączą skoro one mają wewnętrzną sieć odciętą od świata a nic nie można włączyć /wyłączyć zdalnie tylko trzeba wszystko robić ręcznie? to samo atomowe bazy wojskowe.. gdyby było inaczej to już by jakiś pojeb próbował, odcinając prąd same zginą więc to się mija z celem. zaraz któryś wyskoczy z terminatorem ok dawaj, wystarczy EMP jak nie to przepięcie i po sprawie.


Myslisz się, już nieraz były ataki na systemy QNX, odpowiedzialne za sterowniki PLC w elektrowniach, naszczęście pracownicy mięli łeb na karku, aby przejąć ręczną kontrolę nad reaktorem :roll:

Timitum

2017-09-25, 18:48
Z tego co widzę, to nawet nie jest AI w pełnym sensie tego słowa. To boty. To jedynie zestaw poszczególnych algorytmów plus nakładka w postaci uczenia maszynowego, to znaczy, że program patrzy na poprzednie rezultaty przy podejmowaniu decyzji.
Powtarzanie wzorców znanych naturze też mnie nie dziwi, bo nasze zachowanie jest w pewien sposób wynikiem tego jak działa człowiek jako taki. Główna różnica, że nam to zajęło pare milionów lat (albo więcej, nie znam rzędu wielkości), a zestaw procków ogarnął to na tyle szybko, że autorzy badania jeszcze za życia mogli napisać artykuł o tym.

PC_Majster_GNU

2017-09-25, 19:24
Timitum napisał/a:

Z tego co widzę, to nawet nie jest AI w pełnym sensie tego słowa. To boty. To jedynie zestaw poszczególnych algorytmów plus nakładka w postaci uczenia maszynowego, to znaczy, że program patrzy na poprzednie rezultaty przy podejmowaniu decyzji.
Powtarzanie wzorców znanych naturze też mnie nie dziwi, bo nasze zachowanie jest w pewien sposób wynikiem tego jak działa człowiek jako taki. Główna różnica, że nam to zajęło pare milionów lat (albo więcej, nie znam rzędu wielkości), a zestaw procków ogarnął to na tyle szybko, że autorzy badania jeszcze za życia mogli napisać artykuł o tym.


To dopiero początek, kto wie co przyniesie grafen :->

ellsworth

2017-09-25, 19:30
PC_Majster_GNU napisał/a:


Myślę że to tylko kwestia dostarczanych informacji.


To jest kwestia braku zrozumienia tego co robią.
Te wszystkie pseudo inteligencje działają na zasadzie Chińskiego Pokoju. Wykonują jakąś czynność, oczekują konkretnych rezultatów, ale tak naprawdę nie maja bladego pojęcia co robią.

PC_Majster_GNU

2017-09-25, 21:06
ellsworth napisał/a:


To jest kwestia braku zrozumienia tego co robią.
Te wszystkie pseudo inteligencje działają na zasadzie Chińskiego Pokoju. Wykonują jakąś czynność, oczekują konkretnych rezultatów, ale tak naprawdę nie maja bladego pojęcia co robią.


Właśnie zdałem sobie z tego sprawę, ciekawe co będzie gdy algorytmy dojdą do wniosku że wszystko jest bez sensu :idzwch*j:

voidinfinity

2017-09-25, 21:46
ellsworth napisał/a:

Wykonują jakąś czynność, oczekują konkretnych rezultatów, ale tak naprawdę nie maja bladego pojęcia co robią.



Czyli z grubsza to co 99.9% ludzi :amused:

manson__

2017-09-25, 23:16
ellsworth napisał/a:


To jest kwestia braku zrozumienia tego co robią.
Te wszystkie pseudo inteligencje działają na zasadzie Chińskiego Pokoju. Wykonują jakąś czynność, oczekują konkretnych rezultatów, ale tak naprawdę nie maja bladego pojęcia co robią.


Zdefiniuj zatem 'rozumienie'.

Timitum

2017-09-26, 18:30
@up zapewne Ci chodzi o samoświadomość? Jakby tego nie definiować, algorytm na pewno tej funkcji nie wykonuje.