https://pl.wikipedia.org/wiki/Etyka_robot%C3%B3wIsaac Asimov w roku 1942 stworzył trzy prawa robotów i przedstawił je w fantastycznym opowiadaniu Zabawa w berka (ang. Runaround). Celem tych praw było uregulowanie kwestii stosunków pomiędzy przyszłymi myślącymi maszynami a ludźmi. Przedstawiały się one następująco :
1) Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2) Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
3) Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
czytałem praktycznie wszystko Asimova i tam sporo takich problemów moralnych z uwzględnieniem robotów jest. Co ciekawe masa ludzi dziś zajmująca się robotami i sztuczną inteligencją też czytała Asimova i to jest dosyć powszechna wiedza w tym środowisku.
Aczkolwiek nie jest to idealny pomysł i są też inne.
To bardziej jest dziedzina filozofii moralnej w sumie niż nauk ścisłych w końcu...
no i kto miałby takie zabezpieczenia wprowadzać w AI? biorąc pod uwagę, że głównym rozwijającym roboty i sztuczną inteligencję jest wojsko... które przecież doskonali te 'zabawki' do zabijania innych ludzi...