18+
Ta strona może zawierać treści nieodpowiednie dla osób niepełnoletnich.
Zapamiętaj mój wybór i zastosuj na pozostałych stronach
topic

Jedz te lody babka!

PC_Majster_GNU • 2017-09-08, 21:08
Nie ważne gdzie jesteś i co się stało, masz jeść te lody :loldev:

e555

2017-09-08, 21:24
Pomysł ciekawy, ale oglądałoby się z większą satysfakcją, gdyby tą panią zamienić na Angelę M. a robota na bandę imigrantów!
:trollencjusz:

JPablo

2017-09-08, 23:03
Takie przemyślenie, technika wciąż idzie w zastraszającym tempie do przodu, jeszcze kilka lat temu mieliśmy telefony rozmiaru cegły, potem telefony z klawiaturą rozmiaru tabliczki czekolady ew. batonika, nikt nawet nie wyobrażał sobie dotykowego całego ekranu a teraz jest codziennością.

Przechodząc do sedna, za kilka, bądź kilkanaście lat powstanie sztuczna inteligencja, która sama będzie się uczyła, etc etc.
Co jeżeli ktoś zaprogramuje ją tak że ludzie mają mieć najlepiej, mają nie być w stanie zagrożenia a roboty mają za zadanie chronić jednostkę żywą, (Film Ja Robot) a roboty uznają że zagrożeniem dla człowieka jest człowiek i po prostu zniewolą ludzkość bo sama sobie zagraża :v

PC_Majster_GNU

2017-09-08, 23:45
JPablo napisał/a:

Takie przemyślenie, technika wciąż idzie w zastraszającym tempie do przodu, jeszcze kilka lat temu mieliśmy telefony rozmiaru cegły, potem telefony z klawiaturą rozmiaru tabliczki czekolady ew. batonika, nikt nawet nie wyobrażał sobie dotykowego całego ekranu a teraz jest codziennością.

Przechodząc do sedna, za kilka, bądź kilkanaście lat powstanie sztuczna inteligencja, która sama będzie się uczyła, etc etc.
Co jeżeli ktoś zaprogramuje ją tak że ludzie mają mieć najlepiej, mają nie być w stanie zagrożenia a roboty mają za zadanie chronić jednostkę żywą, (Film Ja Robot) a roboty uznają że zagrożeniem dla człowieka jest człowiek i po prostu zniewolą ludzkość bo sama sobie zagraża :v


Prościej mówiąc :idzwch*j: :lodowka: :emo:

b0r000

2017-09-09, 00:30
JPablo napisał/a:

Co jeżeli ktoś zaprogramuje ją tak że ludzie mają mieć najlepiej, mają nie być w stanie zagrożenia a roboty mają za zadanie chronić jednostkę żywą, (Film Ja Robot) a roboty uznają że zagrożeniem dla człowieka jest człowiek i po prostu zniewolą ludzkość bo sama sobie zagraża :v



Za podporę wezmę 3 prawa Asimova (wiem pisarz, a nie inżynier robotyki albo informatyk ale wielu bierze te prawa za punkt odniesienia)

1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.


Teraz do rzeczy...
Wszystko zależy od tego jak dobrze ktoś napisze podstawy behawioralne tej SI. Jeśli za podwaliny weźmiemy powyższe trzy prawa to:
SI faktycznie może uznać w pewnym momencie ludzi za zagrożenie dla nich samych. W myśl drugiego prawa "Robot musi być posłuszny rozkazom człowieka...". I tu pojawia się aneks "...chyba że stoją one w sprzeczności z Pierwszym Prawem.". Z godnie z pierwszym prawem nie mogą zniewolić ludzi. Jeśli nawet weźmiemy pod uwagę nawet subtelne metody zniewolenia tak jak na powyższym filmiku to by było wbrew logice. Jeśli człowiek chciałby wyjść z pomieszczenia robot nie może mu tego zabronić, albo inaczej może to, sugerować ale nie może się uciec to przemocy(nawet werbalnej). Jedyne wyjście jakie ew. widzę to podstęp. Niestety i to zawiedzie bo wg. drugiego prawa musi powiedzieć prawdę.

Te trzy prawa choć proste to dobrze zaimplementowane w "główny filar" SI będzie dla niej kagańcem którego nie da rady obejść.

Inna sprawa że biorąc pod uwagę te prawa oraz przedstawiony przez JPablo przykład powstaje nam paradoks, a jak wiadomo te rzadko mają jedną jasną odpowiedź.

cuurniprime

2017-09-09, 01:38
pie**olicie o robotyce panowie a ja poważnie myślałem że yt zaczął romans z pornolami... Za dużo harda :-(

Belial

2017-09-09, 01:43
Rozwiązanie jest proste: celem uniknięcia ew. konfliktu na linii człowiek-maszyna, ludzie muszą stać się maszynami.


lg1500

2017-09-09, 04:00
reklama która ma efekt odwrotny od zamierzonego, nagle tracisz ochote na lody :D

voidinfinity

2017-09-09, 10:57
PostFactum napisał/a:

Rozwiązanie jest proste: celem uniknięcia ew. konfliktu na linii człowiek-maszyna, ludzie muszą stać się maszynami.



Fajnie by było - tylko nie bardzo widzę to pod kątem rozwoju technologii. Musielibyśmy opanować coś w rodzaju nanotechnologii - tak byśmy mogli tworzyć mikrowszczepy, stopniowo zastępując biologiczną strukturę syntetyczną. Ale to jest na razie sci-fi.

Ja mam prostszą odpowiedź. Maszyny zwyczajnie zastąpią ludzi.

Takie nasze przeznaczenie, byśmy wytworzyli sztuczne formy życia, które nie będą ograniczone biologicznie jak my.

Część ewolucji po prostu.

Być może gatunek ludzi napie**ala się między sobą w imię tego co uważamy za "sens życia", a tu prawda jest boleśnie prosta. Więcej robotów, dupki!

b0r000 napisał/a:

Za podporę wezmę 3 prawa Asimova



Jeżeli twój gatunek umrze z powodu zarazy (antybiotyki już przestają działać), albo zwyczajnie przestanie się reprodukować - to ci nawet prawa robotyki nie pomogą ;-)

FransFr

2017-09-09, 12:03
voidinfinity napisał/a:

Ja mam prostszą odpowiedź. Maszyny zwyczajnie zastąpią ludzi.



Tu się nie zgodzę, że maszyny zastąpią ludzi. Powód jest taki że i my jesteśmy robotami zaprogramowanymi przez ewolucje na drodze zmian w naszej genetyce. To co my teraz budujemy to są bardzo prywitywne odpowiedniki biologicznych maszyn którym w dodatku brakuje dwóch niezbędnych cech aby cywilizacja nie doznała zastoju lub poprostu nie wykoleiła się na bardziej złożonym problemie. Są to zdolność do samoregeneracji i abstrakcyjne myślenie które to sprawiają że człowieka nie da się zastąpić.

My do tej pory nie jesteśmy w stanie wyjaśnić czym tak naprawdę jest "wymiar świadomości". A co za tym idzie, nie potrafimy nadać czemukolwiek takowej zdolności do abstrakcyjnego myślenia.

Poprostu, wbrew pozorom jesteśmy niezastąpieni.

korinogaro

2017-09-09, 13:08
@b0r000 te prawa są dobre do książek ale nie w rzeczywistości.
1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

1. Jak chcesz zdefiniować krzywdę człowieka? Nie dasz rady. Przykład, ktoś stracił w wypadku całą rodzinę i cierpi straszne psychiczne katusze. Chce popełnić samobójstwo. Co jest większą krzywdą? Jego cierpienie czy śmierć? My nie potrafimy na to pytanie odpowiedzieć, a nawet gdybyśmy potrafili to AI kierująca się jedynie logiką a nie jak my zaburzonym emocjami umysłem mogłaby dojść do wniosków które dla naszych emocjonalnych umysłów byłyby torturą.
2. Posłuszeństwo rozkazom. Sposób w jaki porozumiewają się ludzie jest bardzo dorozumiany, często omijamy całe zdania bo wynikają one z kontekstu wcześniejszej rozmowy albo ustaleń. Innymi słowy AI może wykonywać nasze polecenia nie zgodnie z naszym zamierzeniem mimo istnienia tego prawa.
3. To akurat jest najmniej dziurawe.

PS. Dużym problemem jest też sama definicja człowieka. Kiedy zaczyna się a kiedy kończy człowiek. Czy człowiek w śpiączce to człowiek? Widziałem pracę naukową na jakieś 270 stron która wymieniała niezliczone luki w tej trójce.

voidinfinity

2017-09-09, 14:16
FransFr napisał/a:

Są to zdolność do samoregeneracji i abstrakcyjne myślenie które to sprawiają że człowieka nie da się zastąpić.



Jaka zdolność samoregeneracji? ;-) Każdy poważniejszy uraz = kalectwo.

Maszynie może wymienić zniszczone uszkodzone komponenty, nie mówiąc już o tym że jest nieśmiertelna oraz ogólnie tańsza w utrzymaniu. Wystarczy jej tylko prąd.

Do tego takie detale jak współdzielenie danych (coś jak telepatia), współdzielenie doświadczeń i algorytmów zachowań. Dzisiaj żeby człowieka nauczyć czegoś - to potrzeba wiele lat, wysiłku i nie ma gwarancji powodzenia. Maszynie wystarczy zainstalować odpowiednie oprogramowanie i już.

Myślenie abstrakcyjne? Poczytaj o "deep learning". Maszyny zaczynają się uczyć same. Po prostu musi zostać osiągnięta masa krytyczna.

FransFr napisał/a:


My do tej pory nie jesteśmy w stanie wyjaśnić czym tak naprawdę jest "wymiar świadomości". A co za tym idzie, nie potrafimy nadać czemukolwiek takowej zdolności do abstrakcyjnego myślenia.



Z doświadczenia ci powiem, że większości ludzi nie podejrzewam o jakikolwiek poziom świadomości wyższy od wymiaru świadomości prosiaka.

FransFr napisał/a:

Poprostu, wbrew pozorom jesteśmy niezastąpieni.



Nie ma czegoś takiego jak być "niezastąpionym".

Natomiast to nie jest tak że przepowiadam wojnę z maszynami itd. Maszyny będą miały wbudowane oprogramowanie bazujące choćby na prawach Asimova. Natomiast nic nas nie uchroni przed nami samymi, albo np. przed jakimś wirusem.

korinogaro napisał/a:

1. Jak chcesz zdefiniować krzywdę człowieka?



To, że werbalizacja tego czym jest "krzywda człowieka" jest problematyczna - nie znaczy, że ty czy większość, nie rozumie czym jest krzywda człowieka. Czyż nie? ;-)

JPablo

2017-09-09, 18:52
Cytat:


Te trzy prawa choć proste to dobrze zaimplementowane w "główny filar" SI będzie dla niej kagańcem którego nie da rady obejść.

1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.


Tu się mylisz, prawo 1 oznacza brak zadawania obrażeń jednostce żywej, prawo 2 musi być posłuszny ale włączając kolidujące prawo 1 oraz 2 wykluczają się, jeżeli uznam że nie mogę Cię uderzyć ale zrobi to ktoś inny to dla twojego bezpieczeństwa zamknę Cię w domu, mimo rozkazu otwarcia wciąż prawo nr 1 będzie aktywne które mówi że ktoś Cię skrzywdzi i prawo 2 zostanie zniwelowane, więc nie opuścisz domu.

SI to ciężki temat, bo logiczne myślenie komputera opiera się na przemyślanym kodzie napisanym przez człowieka a jak wiadomo ten nie zawsze znajdzie wszystkie luki które tworzy

greony12

2017-09-10, 01:54
@voidinfinity @b0r000 zdaliście se sprawę ze firma lotnicza zastąpiła 1000 ludzi komputerami? one są ta nie i nie trzeba płacić im wynagrodzenia, a rząd i tak zarobi na podatku od firmy + za płacenie prądu, SI ma jeszcze wiele do nadrobienia, a już zastopuje niektóre stanowiska

można go zaprogramować ale tez hakować, jak nie za pomocą kabla dział to wifi lub mu podobne a dla haka to tym lepiej, i czała fabryka jebuty sk***isynu, mam XX Czarnobyl, pobity człowiek itp, wirus załatwi niejedna komputer i będzie trzeba znaleźć antybiotyk na anonymous

jak maszyny mogą być inteligentne jak my to muszą jakoś sie uczyć jak my np na emocjach, moze wystarczy obserwacja, SI analizuje to i podkreśla jak, dlaczego, i jaki mamy winnik, z poprzedniego PD/traumy on uznaje to za takie lub takie

jak człowiek to i maszyna moze być wadliwa, nic nie idzie 100% idealnie a jak ci idzie, wiedz ze coś w międzyczasie sp***oliłeś na pewno, nie ma na świecie człowieka który nigdy nie jest pierdołą, jaki właszyciel taki pies, SI na pewno to odziedziczy po twórcy i popełni kolejny błąd

owszem nie mam czegoś takiego jak niezastąpiony, my łamiemy nogę robotowi śrubka odpada, amputacja albo naprawa lub lepiej po prostu na złom go wywali NFZ :-D