18+
Ta strona może zawierać treści nieodpowiednie dla osób niepełnoletnich.
Zapamiętaj mój wybór i zastosuj na pozostałych stronach
topic

SI wynalazła ludobójstwo i wojnę

PC_Majster_GNU • 2017-09-24, 19:37
Boty w wirtualnym społeczeństwie zaczęły urządzać czystki etniczne i toczyć bratobójcze wojny. Ich zachowanie przypomina historię ludzkości.

Naukowcy z Carnegie Mellon stworzyli symulację opartą na „dylemacie więźnia”, od lat znanym modelu teorii gier. Wirtualne boty żyły w wyimaginowanym społeczeństwie i komunikowały się ze sobą. Mogły albo ze sobą współpracować, albo oszukiwać. Współpraca dawała korzyść obu stronom, jednak jeśli któremuś agentowi udało się oszukać oponenta – zyskiwał zdecydowanie więcej. Najbardziej skuteczne jednostki kopiowano i przechodziły do kolejnej tury. Wprowadzono też niewielką możliwość pomyłki.


Cytat:

Boty otrzymywały nagrodę jeśli współpracowały oraz jeśli udawało im się oszukać przeciwnika (fot. Nicky Case)



Model ma zastosowanie w codziennym życiu. Podobnie zachowują się ludzie, kiedy stają przed dylematem, czy chcą przystąpić do strajku, wziąć udział w zmowie cenowej, albo zaangażować się w pracę nad różnymi projektami. Wirtualne maszyny stawały przed podobnymi dylematami.

Badacze spodziewali się zaobserwować najlepszą strategię: wet za wet. Polega ona na kopiowaniu zachowań przeciwnika. Jeśli ktoś traktuje Cię dobrze – odwdzięcz się. Jeśli ktoś Cię oszuka – oszukaj i jego. Ten sposób zachowania faktycznie dominował w wirtualnej społeczności botów. Jednak po kilkuset generacjach, ku zaskoczeniu naukowców, maszyny przestawały współpracować i zaczynały toczyć między sobą cykliczne wojny .


Cytat:

Po kilkuset turach pojawiał się zaznaczony na zielono czas pokoju, a zaraz potem wyniszczające wojny –
żółty kolor (fot. Simon Dedeo)



Okazało się, że Sztuczna Inteligencja rozpoznawała swoje własne idealne kopie, traktując każde odstępstwo jako przyczynek do ataku. W ten sposób SI wynalazła „botobójstwo” i wyniszczającą wojnę, w której ginęły również te maszyny, które stosowały najbardziej optymalną strategię „wet za wet”. Po tym okresie pozostawało kilka maszyn, które zaczynały ze sobą współpracować przez kolejne kilkaset pokoleń, aż w końcu losowe błędy osiągały poziom krytyczny co znowu doprowadzało do wszczęcia bratobójczych walk.


Cytat:

Boty wypracowywały różne strategie, z których najbardziej efektywna była „wet za wet” (fot. Nicky Case)



Strategia stosowana przez Sztuczną Inteligencję przypomina zachowanie ludzi znane chociażby ze „Starego Testamentu”:
Cytat:


Następnie Gileadczycy odcięli Efraimitom drogę do brodów Jordanu, a gdy zbiegowie z Efraima mówili: „Pozwól mi przejść”, Gileadczycy zadawali pytanie: „Czy jesteś Efraimitą?” – A kiedy odpowiadał: „Nie”, wówczas nakazywali mu: „Wymówże więc Szibbolet”. Jeśli rzekł: „Sibbolet” – a inaczej nie mógł wymówić – chwytali go i zabijali u brodu Jordanu. Tak zginęło przy tej sposobności czterdzieści dwa tysiące Efraimitów.
(„Księga Sędziów”; „Biblia Tysiąclecia”):



W wielu konfliktach zbrojnych to zachowanie wielokrotnie się powtarzało. Podczas wojny domowej w Finlandii w 1918 roku, Finowie rozpoznawali rosyjskich szpiegów przez to, że nie potrafili wymówić słowa „yksi”, co oznaczało „jeden”. Ten sposób rozpoznawania wrogów wypracowała sobie również Sztuczna Inteligencja w wirtualnym świecie, czego efekty nie prowadzą do pozytywnych wniosków.

Źródło: http://www.chip.pl/2017/09/si-wynalazla-ludobojstwo-wojne/

voidinfinity

2017-09-26, 20:03
@up

Podobnie jak zapłodniona komórka jajowa - samoświadomości nie ma :amused:

To znaczy jak dla mnie nie ma problemu - bo nie jestem popie**olony żeby domagać się praw dla zygot czy współczesnej SI :amused:

Timitum

2017-09-26, 20:07
@up zygota ma już "pełen software" do świadomości. Pełne DNA z pełnym zestawem instrukcji. Dyskusje na ten temat jednak zostawię dla tematów w których gównoburza już się kręci, jeśli nie masz nic przeciwko ;)

voidinfinity

2017-09-26, 20:19
Timitum napisał/a:

@up zygota ma już "pełen software" do świadomości.



Ma co najwyżej zestaw instrukcji do tworzenia hardeware'u ;-)

Software świadomości kompiluje się dopiero w trakcie powstawania i pracy mózgu. Powiedziałbym też, że ta kompilacja dokonuje się warstwami. Najpierw niskopoziomowe instrukcje jak oddychanie, bicie serca, przetwarzanie bodźców - a dopiero efektem tego wszystkiego jest świadomość.

ps. dobra gównoburza, nigdy nie jest zła.

ellsworth

2017-09-26, 20:56
manson__ napisał/a:


Zdefiniuj zatem 'rozumienie'.


Perfekcyjnie widać to na przykładzie wszystkich tranzlatorów. Zawsze wychodzi mniejsza lub większa bzdura. Dlaczego? Wydawać by się mogło, że tłumaczenie na różne języki to dla komputerów wymarzone zadanie, ze względu na niemal 100% sformalizowanie języka, który skłąda się z:

1. Słownictwa - każde słowo ma jakieś znaczenie. Może to być kilka znaczeń, ale zawsze jest to skończona i w miarę stała pula.
2. Gramatyka - rzecz jeszcze bardziej sformalizowana. Zazwyczaj jest tylko jeden poprawny sposób zapisu jakiegoś zdania.

Komputer ma dostęp zarówno do zasobu leksykalnego jak i gramatycznego większy niż jakikolwiek człowiek, dlaczego więc tłumaczy nieporównywalnie gorzej niż jakikolwiek ludzki tłumacz?
Właśnie dlatego, że brakuje tego magicznego trzeciego czynnika, który jest tak naprawdę najważniejszy. Rozumienia tłumaczonego tekstu. Można nie znać co któregoś słowa, nie znać pewnych struktur gramatycznych a i tak przetłumaczyć po tysiąckroć lepiej niż najbardziej zaawansowany tranzlator z tego prostego powodu, ze on przy całej swojej wiedz nie ma absolutnie bladego pojęcia co tak naprawdę robi. I tak jest z absolutnie każdą rzeczą, której podejmuje się komputer. On potrafi tylko symulować rozumowanie problemu, a nie rozwiązywać go w sposób rzeczywisty. Są one tak samo głupie jak za czasów Turinga i świecących lampek, jedyne co się zmieniło to to, że dzięki znacznie większej mocy obliczeniowej potrafią lepiej udawać inteligencję.

voidinfinity

2017-09-26, 22:09
ellsworth napisał/a:


Perfekcyjnie widać to na przykładzie wszystkich tranzlatorów. Zawsze wychodzi mniejsza lub większa bzdura. Dlaczego? Wydawać by się mogło, że tłumaczenie na różne języki to dla komputerów wymarzone zadanie, ze względu na niemal 100% sformalizowanie języka, który skłąda się z:
1. Słownictwa - każde słowo ma jakieś znaczenie. Może to być kilka znaczeń, ale zawsze jest to skończona i w miarę stała pula.
2. Gramatyka - rzecz jeszcze bardziej sformalizowana. Zazwyczaj jest tylko jeden poprawny sposób zapisu jakiegoś zdania.



Bzdury do kwadratu.

Po pierwsze język jest organizmem żywym i wcale nie jest tak sformalizowany jak się niektórym wydaje. Prosty przykład - idiomy.

Po drugie, bardzo dobre rezultaty osiąga się poprzez zastosowanie sieci semantycznych, których zastosowanie powoduje że wraz ze słowem analizowana jest mapa znaczeniowa w korpusie tłumaczonego tekstu. Warto też zauważyć, że bez dobrej znajomości kultury z której języka się tłumaczy, nawet człowiek nie poradziłby sobie perfekcyjnie.

Po trzecie, języki nie są izomorficzne i istnieją wyrażenia lub nawet słowa, które nie mają odpowiedników w innych językach.

Swoją drogą, nie wiem czy wiecie, że tłumacząc w google translate np. z polskiego na francuski, najpierw tekst jest tłumaczony na angielski, a potem dopiero na francuski. Ogólnie łatwiej tłumaczy się języki z jednej rodziny. Wspominam, dlatego żebyście nie traktowali tego translatora jako punktu odniesienia ;-)

ellsworth napisał/a:

Są one tak samo głupie jak za czasów Turinga i świecących lampek, jedyne co się zmieniło to to, że dzięki znacznie większej mocy obliczeniowej potrafią lepiej udawać inteligencję.



Na tej samej zasadzie można powiedzieć, że człowiek jest tak samo głupi jak w dniu w którym zszedł z drzewa. Pomiędzy człowiekiem z Cro-Magnon a współczesnym istnieje tylko jedna różnica - współczesny ma dostęp do lepszego "oprogramowania" i "bazy danych" - czyli informacji i metod pracy z nimi.

Ostatecznie wszystko zależy od przyjętej definicji. Jeżeli maszyna jest w stanie pokonać test Turinga (a jest), to jest to bardzo dobry znak na przyszłość.

Timitum

2017-09-27, 19:02
voidinfinity napisał/a:

Swoją drogą, nie wiem czy wiecie, że tłumacząc w google translate np. z polskiego na francuski, najpierw tekst jest tłumaczony na angielski, a potem dopiero na francuski. Ogólnie łatwiej tłumaczy się języki z jednej rodziny. Wspominam, dlatego żebyście nie traktowali tego translatora jako punktu odniesienia


Już chyba nie jest. Jak sam napisałeś, tworzona jest mapa znaczeń. Obecnie wujek Google wspomaga te mapę znaczeń uczeniem maszynowym, i jeśli translator przetłumaczył z polskiego na chiński "dzień dobry", i z chińskiego na suahili też przetłumaczył "dzień dobry", to po tym będzie w stanie zrobić tłumaczenie "zero-shot" (nie pamiętam jak to nazwali) bezpośrednio z polskiego na suahili. Innymi słowy: sk***ole robią się coraz lepsi.
I żebym nie był gołosłowny, źródło to ich blog badawczy: https://research.googleblog.com/2016/11/zero-shot-translation-with-googles.html

ellsworth

2017-09-27, 19:15
voidinfinity napisał/a:


Po pierwsze język jest organizmem żywym i wcale nie jest tak sformalizowany jak się niektórym wydaje. Prosty przykład - idiomy.


To, że jest żywy nie ma tu nic do rzeczy. Nie zmienia się z dnia na dzień. Zresztą tłumaczenie z martwego jeżyka, np. łaciny nie pójdzie komputerowi wcale lepiej.

voidinfinity napisał/a:


Po drugie, bardzo dobre rezultaty osiąga się poprzez zastosowanie sieci semantycznych, których zastosowanie powoduje że wraz ze słowem analizowana jest mapa znaczeniowa w korpusie tłumaczonego tekstu. Warto też zauważyć, że bez dobrej znajomości kultury z której języka się tłumaczy, nawet człowiek nie poradziłby sobie perfekcyjnie.


No i tym samym potwierdziłeś to o czym piszę. Czymże jest ta cała sieć semantyczna jak nie protezą, która ma w jakimkolwiek stopniu ratować to, że komputer nie rozumie tego co tłumaczy? I nie mówię to o perfekcyjnym tłumaczeniu. Błędy zderzają się nawet najlepszym. Chodzi o kaliber tych błędów. Ludzki tłumacz nigdy nie wymyśli takiego tłumaczenia, ze czytając potem można się pokładać ze śmiechu, właśnie dlatego że sobie od razu uświadomi, że to nie ma sensu w ten sposób. Komputer z cała powagą przedstawi swoje na wskroś pozbawione sensu tłumaczenie jako finalny produkt i co najważniejsz nie będzie sobie kompletnie zdawał sprawy z tego jaki idiotyzm wymyślił, bo i jak skoro nie rozumie tego co zrobił?
No i jeszcze jedna sprawa odnosząca się do całościowego spojrzenia na tekst. O ile dostając do tłumaczenia całą książkę może sobie robić "mapę znaczeniową", to o tyle jak mu wciśniesz do przetłumaczenia trzy proste zdania to cały ten misterny plan pójdzie w p*zdu, a człowiek w dalszym ciągu sobie bez większych problemów poradzi. I naprawdę nie mówię tu o jakichś wyszukanych, czy podchwytliwych przypadkach wymyślonych aby "złapać" tłumacza. Komputer rozkłada się kompletnie na łopatki przy najprostszych tekstach. Przyczyna jest zawsze ta sama, nie rozumie tego co tłumaczy.


voidinfinity napisał/a:


Po trzecie, języki nie są izomorficzne i istnieją wyrażenia lub nawet słowa, które nie mają odpowiedników w innych językach.


Istnieją, ale zazwyczaj można je w lepszy lub gorszy sposób oddać opisowo przekładając. Tyle, że tutaj znowu pojawia się ta kluczowa sprawa. Trzeba rozumieć to co się przekłada.

voidinfinity napisał/a:


Swoją drogą, nie wiem czy wiecie, że tłumacząc w google translate np. z polskiego na francuski, najpierw tekst jest tłumaczony na angielski, a potem dopiero na francuski. Ogólnie łatwiej tłumaczy się języki z jednej rodziny. Wspominam, dlatego żebyście nie traktowali tego translatora jako punktu odniesienia ;-)


Kiedys miałem przyjemność rzucić do google tranzlatora oficjalne pismo z jednej ze słowackich instytucji państwowych. Potrzebowaliśmy szybko rozeznać się o co im chodzi zanim przyjdzie oficjalne tłumaczenie. Język polski i słowacki, jak najbardziej ta sama grupa językowa, bardzo blisko ze sobą związane. Zgodnie z tranzlatorem Słowacy w swym piśmie zarzucali nam zbyt duży "atak i okupację" ich kraju. :mrgreen: To mówi samo za siebie.


voidinfinity napisał/a:


Na tej samej zasadzie można powiedzieć, że człowiek jest tak samo głupi jak w dniu w którym zszedł z drzewa. Pomiędzy człowiekiem z Cro-Magnon a współczesnym istnieje tylko jedna różnica - współczesny ma dostęp do lepszego "oprogramowania" i "bazy danych" - czyli informacji i metod pracy z nimi.


To o czym piszesz jest polem bardzo silnego zainteresowania naukowców. Czy i na ile różnimy się intelektualnie od człowieka sprzed 100 tysięcy lat i póki co nie ma jednoznacznej odpowiedzi. Choć napewno nie jest to wyłącznie kwestia różnic wynikających z umiejętności przekazywania informacji, bo znacznie bogatsza w substancje odżywcze dieta oraz ochrona przed licznymi, wyniszczającymi organizm chorobami również przyczynia się w niebagatelny sposób do większej sprawności intelektualnej współczesnych ludzi.

voidinfinity napisał/a:


Ostatecznie wszystko zależy od przyjętej definicji. Jeżeli maszyna jest w stanie pokonać test Turinga (a jest), to jest to bardzo dobry znak na przyszłość.


Ani test Turinga nie jest żadną prawdą objawioną stanowiącą wyznacznik inteligencji maszyn, ani też nie dowodzi niczego skoro Chiński Pokój również z powodzeniem by ten test zaliczył. To jest tylko taka ciekawostka, z punktu widzenia człowieka czy da się go wyprowadzić w pole, a nie rzeczywisty wyznacznik zdolności maszyny, która chociaż prowadzi konwersację to w dalszym ciągu (i po raz kolejny wraca to jak bumerang) nie rozumie o czym rozmawia.
Aha, no i ten bot, który przeszedł test Turinga wykładał się na rzeczach wręcz absurdalnie oczywistych jak pytanie czy większe jest pudełko butów czy Mount Everest, właśnie dlatego że nie rozumiał pytań na które odpowiadał.

voidinfinity

2017-09-27, 23:58
ellsworth napisał/a:


To, że jest żywy nie ma tu nic do rzeczy. Nie zmienia się z dnia na dzień. Zresztą tłumaczenie z martwego jeżyka, np. łaciny nie pójdzie komputerowi wcale lepiej.



Ale sam fakt, że się zmienia, oraz że nie potrafimy zdefiniować tego w jaki sposób będzie się zmieniał pokazuje że nie jest sformalizowany ;-) A przynajmniej nie w takim stopniu by pozwolić, na stworzenie "metajęzyka" - który umożliwiłby skuteczne tłumaczenie z dowolnego języka na dowolny język.

Pomyśl czy dogadałbyś się z innym Polakiem żyjącym 100,200 czy 300 lat temu (nawet znając słownictwo).

ellsworth napisał/a:


No i tym samym potwierdziłeś to o czym piszę. Czymże jest ta cała sieć semantyczna jak nie protezą, która ma w jakimkolwiek stopniu ratować to, że komputer nie rozumie tego co tłumaczy?



Rozumiem, że twoje rozumienie wyrazów objawia się w głowie ex-nihilo ;-) Ludzie przecież też budują swoje sieci semantyczne i doskonalą umiejętności kojarzenia.

To o czym mówisz to stopień zrozumienia, a nie sam fakt zrozumienia.

ellsworth napisał/a:


Kiedys miałem przyjemność rzucić do google tranzlatora oficjalne pismo z jednej ze słowackich instytucji państwowych.



Tak jak pisałem - dowolny język tłumaczony jest na angielski i potem tłumaczony na docelowy.

ellsworth napisał/a:


To o czym piszesz jest polem bardzo silnego zainteresowania naukowców. Czy i na ile różnimy się intelektualnie od człowieka sprzed 100 tysięcy lat i póki co nie ma jednoznacznej odpowiedzi. Choć napewno nie jest to wyłącznie kwestia różnic wynikających z umiejętności przekazywania informacji, bo znacznie bogatsza w substancje odżywcze dieta oraz ochrona przed licznymi, wyniszczającymi organizm chorobami również przyczynia się w niebagatelny sposób do większej sprawności intelektualnej współczesnych ludzi.



To porównaj sobie typowego sebixa i jakiegoś inżyniera ;-) Ani dietą, ani niczym innym niż tym co pisałem się nie różnią - a jednak dzieli ich przepaść.


ellsworth napisał/a:

Ani test Turinga nie jest żadną prawdą objawioną stanowiącą wyznacznik inteligencji maszyn, ani też nie dowodzi niczego skoro Chiński Pokój również z powodzeniem by ten test zaliczył. To jest tylko taka ciekawostka, z punktu widzenia człowieka czy da się go wyprowadzić w pole, a nie rzeczywisty wyznacznik zdolności maszyny, która chociaż prowadzi konwersację to w dalszym ciągu (i po raz kolejny wraca to jak bumerang) nie rozumie o czym rozmawia.
Aha, no i ten bot, który przeszedł test Turinga wykładał się na rzeczach wręcz absurdalnie oczywistych jak pytanie czy większe jest pudełko butów czy Mount Everest, właśnie dlatego że nie rozumiał pytań na które odpowiadał.



Wszystko zależy od definicji - a jak nie wierzysz to spróbuj udowodnić, że rozumiesz, a nie udajesz że rozumiesz ;-)

Maszyny dorównujące człowiekowi - to nie jest kwestia "czy" tylko "kiedy". A tak konkretniej - to wtedy kiedy rozwój SI będzie opłacalny biznesowo - a tak się składa że weszliśmy już w ten etap.

Timitum napisał/a:


Już chyba nie jest. Jak sam napisałeś, tworzona jest mapa znaczeń. Obecnie wujek Google wspomaga te mapę znaczeń uczeniem maszynowym, i jeśli translator przetłumaczył z polskiego na chiński "dzień dobry", i z chińskiego na suahili też przetłumaczył "dzień dobry", to po tym będzie w stanie zrobić tłumaczenie "zero-shot" (nie pamiętam jak to nazwali) bezpośrednio z polskiego na suahili. Innymi słowy: sk***ole robią się coraz lepsi.
I żebym nie był gołosłowny, źródło to ich blog badawczy: https://research.googleblog.com/2016/11/zero-shot-translation-with-googles.html



Nie poratuje linkiem, ale czytałem niedawno o meta języku słowiańskim, który pozwoliłby lepiej tłumaczyć teksty w ramach tej jednej rodziny. Pamiętam też że było to w kontekście google translate, ale więcej szczegółów nie pamiętam - a nie chcę bajek opowiadać.