Ixolite napisał(a):Przeczytałem Marcinie felieton z nowego numeru NF, "Serce maszyny" i w dużym stopniu czuję się zmuszony z nim niezgodzić. Piszesz o emocjach jako motorze działań, przyjmując bardzo ludzki punkt widzenia. Pomijasz choćby instynkt - działania nie racjonalne w sensie świadomej analizy, nie powodowane abstrakcyjnymi emocjami takimi jak poczucie wyższości lub uczucie złości, a głęboko zakorzenionymi odruchami, które popychają nas i innych przedstawicieli gatunków biologicznych choćby do zapewnienia ciągłości funkcjonowania własnego organizmu. Znane zagrożenie nie jest analizowane, tylko popycha do działań mających na celu jego uniknięcie bądź zneutralizowanie. Ale to tak trochę na marginesie.
Hm. Wręcz przeciwnie. Felieton to za krótka forma, żeby dokładnie sprawę omówić. Więc może tu. Ciało migdałowate (CM)należy do tzw. układu limbicznego, zwanego też mózgiem paleossaków. To stara struktura i jej działania są w dużej mierze nieświadome. CM nazywane jest "centralnym komputerem mózgu" i jego oceny także są w dużej mierze nieświadome. Popędy, instynkty, o których piszesz, to właśnie robota CM.
W tym artykule pokazuję coś dokładnie odwrotnego od tego, co napisałeś. Pokazuję, że świadomościowa, właśnie "ludzka" obróbka sytuacji w żaden sposób nie przyczynia się do decyzji, co zrobić. Obróbka logiczna nie jest OCENĄ. Badania neurologiczne pokazują, że to raczej stary mózg podejmuje decyzje, a kora nowa tylko te decyzje LOGICZNIE UZASADNIA, nie zawsze rozumiejąc de facto, co starym mózgiem powodowało.
Patrzysz na równanie w układzie dziesiętnym: 2+2=4 i twierdzisz: PRAWDA.
Jednak, i właśnie na to starałem się usilnie położyć akcent, OCENA tego, że 2+2=4 nie była tylko logiczna. Logicznie można to przeanalizować, a mimo tego nie OCENIĆ. Stwierdzenie "prawda" posiada nikłą cząstkę emocjonalną, która "
zabarwia" to "prawda"
poczuciem prawdy, słuszności.
Ixolite napisał(a):Bardziej istotne jest to, że przykładasz ludzki, emocjonalny i nieracjonalny (bo emocje nie muszą być wcale racjonalne) punkt widzenia do robotów, które wcale nie muszą w ten sposób funkcjonować, nawet jeśli się "zbuntują" (już samo to słowo sugeruje emocjonalną podstawę działań). Tak na dobrą sprawę niemożliwym jest przewidzenie jak potoczy się rozwój sztucznej inteligencji (zakładam, że taką dysponować będą roboty) czyli inteligencji stworzonej przez człowieka. Już teraz jest wiele metod zapewniających funkcjonowanie sztucznych bytów - specjalistą w tej dziedzinie oczywiście nie jestem, ale z czystej ciekawości się trochę tematem interesowałem.
Nie, nie przekładam. W artykule pokazałem tylko, że sama analiza logiczna nie stanowi motywacji, nie powoduje, że się
chce. Maszyny popycha do działania program, który nie pyta, czy im się chce. One nie oceniają, nie analizują, one realizują program. Fenomen samoświadomości może zakładać zaistnienie czegoś na kształt uczucia. Motywacja, czyli to, co popycha do działania, jest wielką tajemnicą, psychologii również. Psychologia swoimi doświadczeniami pokazuje, że analiza logiczna NIE MOTYWUJE.
Gdyby tak było, logicznie zmotywowany palacz rzucałby palenie w mikrosekundzie, podobnie jak logiczny grubas natychmiast rezygnowałby z pączków
.
Ixolite napisał(a):Załóżmy taki scenariusz: bodaj, najprostszym i w stałym, zamkniętym środowisku (to znaczy o określonych parametrach i regułach funkcjonowania) najskuteczniejszym sposobem stworzenia SI jest budowa drzew decyzyjnych - prostych reguł, których spełnienie bądź niespełnienie warunkuje podjęcie konkretnych akcji. Nie sprawdza się to w bardziej skomplikowanych środowiskach, bo napotkanie warunków nie ujętych w regułach sprawia, że SI nie podejmie żadnego działania lub działanie nieadekwatne do nowej sytuacji. Można by założyć, że przy pomocy komputerów dałoby się stworzyć drzewa decyzyjne obejmujące miliardy zmiennych i że przyszłe systemy obliczeniowe będą w stanie poradzić sobie z tak złożonymi strukturami. W takiej sytuacji roboty kierowałyby się czystą logiką, wpisaną w drzewa decyzyjne - ich działania zależne byłyby od ustalonych warunków i dla kogoś znającego te warunki w 100% przewidywalne. Nie byłoby żadnego myślenia w naszym rozumieniu, a wyłącznie analiza warunków i wybranie działania zgodnie z parametrami zawartymi w drzewie decyzyjnym.
Oh yes. But what next? Nie ma w opisanym przez Ciebie układzie miejsca na ocenę. Taką ocenę, o której mówię powyżej. To ciągi przyczynowo skutkowe. Inna sprawa, że być może, i to jest ciekawe, odpowiednio złożone ciągi tworzą w pewnym momencie superstrukturę przekraczającą swój budulec i to jest właśnie zdolność do samoświadomego analizowania.
Odpowiednio złożone cegły tworzą piękną proporcję, która nie jest już cegłą, tylko odległościami i symetriami, sprawami niematerialnymi, lecz informacyjnymi.
Ixolite napisał(a):Oczywiście możliwe jest też powstanie sztucznej inteligencji, która wykazywałaby istnienie czegoś, co nazwalibyśmy emocjami, ale czy wtedy doszłoby w ogóle do buntu?
W tym sęk właśnie, Ixi, że moim zdaniem INTELIGENCJA W ŻADEN SPOSÓB NIE PROWADZI DO BUNTU. Żeby był bunt, musi być KTOŚ, kto ten bunt skonstruuje. A KTOŚ to już duża sprawa.
Zwróć uwagę, że cały artykuł jest o BUNCIE, a nie o usterkach czy wyrwaniu się urządzenia spod kontroli. Gdybym miał pisać o usterkach, najpierw zamailowałbym do Ciebie
. A najpewniej w ogóle nic bym nie pisał, bo się na tym nie znam.
Ixolite napisał(a):Bunt robotów, tak sądzę, możliwy byłby w trzech przypadkach:
[list]czysto logicznym, kiedy człowiek uznany by został za zbyt mało efektywnego, nieoptymalnego, coś co należy zastąpić bardziej skutecznymi rozwiązaniami
Oh yes. To jest właśnie usterka urządzenia. Jak sądzę (jeśli dobrze Cię zrozumiałem). Nie bunt. W opowiadaniu "Ananke" Lema komputer "buntuje się" przeciwko procedurze lądowania uznając, że planeta, do której się zbliża, to asteroid zagrażający życiu załogi. Komputer miał zbyt złożony program, za dużo analizował i w końcu, cymbał, uznał, że planeta to taki duży meteoryt
.
R. Kosik w Verticalu też pisze o automatach, które, pozbawione OCENY (piszę wersalikami, żeby wiadomo było o jaką ocenę chodzi) montują i rozmontowują krzesła i inne podzespoły statku kosmicznego w dziwnych miejsach. Też się "zbuntowały"
.
Ixolite napisał(a):czysto emocjonalnym, kiedy roboty uznałyby się za uciśnione, zniewolone, pozbawione praw itp., ale wtedy nazwałbym to raczej powstaniem, niż buntem
E. Powstanie = bunt.
Ixolite napisał(a):emocjonalno-logicznym, kiedy roboty uznałyby człowieka za coś gorszego od siebie (w ujęciu logicznym), ale równocześnie coś słabszego, delikatniejszego, czemu należy współczuć (w ujęciu emocjonalnym)
Ha. No widzisz. Słowo "emocja" zbyt często jest utożsamiane z łatwo identyfikowalnymi uczuciami. Emocje są zawarte w każdym słowie, które piszesz i wypowiadasz. Jak? Każde z nich ma znaczenie (komponenta intelektualne) i sens (komponenta emocjonalna). Bez tej drugiej człowiek nie jest w stanie skonstruować żadnego zdania, chociaż zna znaczenia wszystkich wyrazów. Pozbawienie ich sensu sprawia, że nic nie ma sensu
.
Przypomnijmy przypadek pacjenta, który widzi twarz ojca, ale jej nie rozpoznaje, chociaż wie, że twarz ta jest identyczna z twarzą ojca. Owo "rozpoznanie" to nadanie widzianej twarzy emocjonalnego sensu. Niestety, drogi neuronalne łączące analizator twarzy z ośrodkami uczuciowymi są przerwane. Więc twarz jest podobna, ale TO NIE TA TWARZ. "
TA", TO
"TA" TWARZ. OWO "
TA" to właśnie sens.
Ixolite napisał(a):Ale kiedy myślę o dwóch pierwszych scenariuszach, to pierwszy wydaje mi się nieprawdopodobnym - programiści projektujący SI muszą wstawiać weń rozmaite ograniczenia i zabezpieczenia (kłaniają się Prawa robotyki), a drugi nie taki znowu czarny, bo w dalszej perspektywie oznaczałby zapewne asymilację robotów z ludzkim społeczeństwem (wojna na wyniszczenie, przy coraz powszechniejszej robotyzacji i elektronizacji niemal wszystkich dziedzin życia wydaje mi się nierealna). Najbardziej niepokojący jest trzeci scenariusz - wyobrażacie sobie roboty, które uznają że człowiekowi trzeba pomóc? Budujące na przykład rezerwaty z odpowiednim, bezpiecznym dla człowieka środowiskiem? To dopiero przerażająca wizja...
Najfajniejsza i nadająca się na opowiadanie... Chociaż w V gamedeku de facto coś takiego opisuję. Maszyny myślą za człowieka, pomagają mu tak bardzo, że właściwie jedyne, w czym nad nimi góruje jest to, że mówi: "teraz pójdziemy tam". Maszyny nie wiedzą po co, bo im się nic NIE CHCE, ale mają program, by się słuchać. Olbrzymy tysiąckroć inteligentniejsze od swojego twórcy idą za człowiekiem, któremu ciągle coś się chce, a chce mu się, bo widzi w tym jakiś sens (potrzeby nadają sens na przykład). Człowiek mówi: "kop tu, głupia maszyno" i robot kopie. Po co? By odnaleźć zabawkę dziecka.
W V gamedeku piszę o świecie, gdzie trakty komunikacyjne, optymalne rozwiązania wszelkich sytuacji życiowych podpowiadane są przez maszyny, a człowiek z nich przeważnie korzysta. Maszyny rozwiązują za niego problemy, pokonują przeszkody, odwalają wielkie głazy i strzelają do wrogów. Człowiek jedynie POKAZUJE CEL.
Przypomniały mi się filmy dokumentalne o japońskich pancernikach podczas drugiej wojny światowej. Tam obsługa przeciwlotnicza (dwóch gości siedzących w / na dziale) strzelało, ale... nie wybierało samodzielnie celu. Cel wskazywał trzeci gość białą pałką.
Ten gość to człowiek. Albo Sens. Albo Potrzeba. Albo uczucie. A ci goście w dziale to maszyny
.
Być może tym się różni człowiek od maszyny, że to on pokazuje cel.
...
Świetny wpis, Ixi. Częściej się ze mną nie zgadzaj
.