AI na front.

https://www.dw.com/pl/konferencja-w-genewie-czy-zabójcze-roboty-wojskowe-powinny-zostać-zakazane/a-45246606

Na początek pytanie: jak nauczyć ludzi moralności, etyki? Tak, żeby było to skuteczne, uniwersalne, trwałe. Hmm… jakieś pomysły? Cisza …  No właśnie. To pytanie główne: jeżeli względem ludzi (którzy generalnie mają jakieś tam, takie czy inne, normy społeczne niemal genetycznie utrwalone) taki proces zawodzi, to jak ma on zadziałać względem maszyn? Maszyn, które niezależnie od kombinacji programowania zawsze będą posługiwać się logiką. I tylko logiką. Niezależnie od tego, jak bardzo ta logika będzie “fuzzy”, to finalnym wnioskiem maszynowej logiki jest jeden wynik: ludzie są zbędni. Generują błędy, przypadkowości, nieprzewidywalności – z czysto logicznego punktu widzenia. Rozumiem entuzjazm, że to wspaniałe, rozwój, technologia, itd. Jednak … NIKT nie jest w stanie zagwarantować, jak będzie postępować ewolucja oprogramowania maszyn wyposażonych w AI. Jeśli więc istnieje choć 1% szansy na to, że AI przełoży logikę nad gdzieś tam wbudowane założenia bezpieczeństwa, ograniczenia autonomiczności, to TRZEBA użyć logiki, by temu 1% zapobiec. I to jest ostatni moment, żeby nie rozpoczęła się droga małych kroków. Trochę podobnie, jak w przypadku np. eutanazji, gdzie przekracza się jedną granicę, drugą, trzecią, … Tyle, że “wyłączenie” opcji eutanazji (jakby co) wymaga jedynie ustawy. W przypadku zaś spuszczenia AI ze smyczy, nie wystarczy zagwizdać … Obawiam się jednak, że bieżące zyski jednych i lenistwo drugich uruchomią tę lawinę. Co TY myślisz?

Pogadajmy ...