Представяме на Вашето внимание новата монография на английски език от доц. Силвия Серафимова Perspectives on Moral AI. Some Pitfalls of Making Machines Moral (Avangard Prima, Sofia, 2022, 274 p.).
Анотация
Разглеждането на спекулациите дали е възможно да се говори за „морални“ машини („морален“ изкуствен интелект), като същевременно се съхрани критическият патос както към страховете от утвърждаването на нов тип апокалиптичен морал, така и по отношение на заслеплението, че изкуственият интелект може да легитимира „прекрасния нов свят“, е комплексно начинание. То предполага преосмислянето на въпросите, поставени от Макинтайър, а именно — „Чия справедливост? Коя рационалност?“ в сферата на изкуствения интелект. В частност, трансформирането на тези въпроси във въпроси от типа „Чий морал? Коя рационалност?“ в областта на машинната етика предполага анализ на нееднозначните критерии за морално разбиране от страна на различните типове т.нар. етични интелигентни агенти. В този контекст основната цел на настоящата монография е да се аргументира защо създаването на добре работещ изкуствен интелект, който служи за постигането на етически цели не означава, че както автономните, така и полуавтономните морални агенти могат принципно да отговорят на изискванията за „морални“ машини.
В първата част на монографията се изследват инженерните и моралните предизвикателства при създаването на експлицитни (автономни) и имплицитни (полуавтономни) морални агенти; в частност се разглеждат проекти за „морални“ машини, инкорпориращи три основни типа теории от областта на нормативната етика (деонтологически, утилитарни теории и етически теории, свързани с ролята на добродетелите), както и хибридни модели (базиращи се на комбинация от принципи от сферата на т.нар. дейностен утилитаризъм и утилитаризъм, основаващ се на правила). При съпоставката на предимствата и недостатъците на тези проекти по отношение на възможностите, които те дават за конструирането на експлицитни и имплицитни морални агенти, се открояват следните предизвикателства, а именно — предизвикателства, свързани с процесите на морално (само)развитие и култивирането на морална отговорност.
С цел илюстриране на моралните дилеми, възникващи в практиката от разработването на подобни проекти за „морални“ машини, втората част на монографията е посветена на сравнителен анализ на различни етически проекти за автономни автомобили. Те са анализирани в рамките на т.нар. етика на убиването (ethics of killing), основаваща се на изработването на принципи за морална допустимост на жертви при неизбежни инциденти. Проучването на различни видове сценарии в рамките на т.нар. експерименти с „морални“ машини има за цел да открои етическите въпроси при отнасянето на цената на смъртоносните инциденти към асиметричното дистрибуиране на вредите, съответно — проблемите при дисперсирането на отговорността в процеса на вземане на решения, при който автономният автомобил не може да отговори на изискванията за т.нар. пълноценен морален агент.
На свой ред предизвикателствата, породени от делегирането на отговорност между хора и експлицитни и имплицитни морални агенти, води до необходимостта от изследването на основанията за утвърждаването на доверие в изкуствения интелект на институционално ниво. Затова и третата част на настоящата монография е посветена на проблемите, възникващи от формирането на доверие към изкуствения интелект по аналогия с изграждането на междуличностно доворие в контекста на т.нар. етика на благонадеждността. Подход, който налага необходимостта от преосмислянето на релацията доверие – надеждност спрямо изкуствения интелект в рамките на т.нар. мултиагентни системи.
Като илюстрация на проблемите, породени от (неблаго)надеждността на изкуствения интелект, е приведена мултиагентната система шофьор/производител/правителствени институции – автономен автомобил, предпоставяща прецизирането на редица морални дилеми, отнасящи се до дeлегиране на т.нар. мултиагентни отговорности и задължения. Затова в рамките на четвъртата част на настоящата монография са изследвани ролята на доверието по отношение на т.нар. споделена операционална отговорност, изграждането на справедлива система за класифициране на формите на виновност, утвърждаването на протоколи за сигурност и др.
На базата на гореспоменатите наблюдения се стига до извода, че етическите противоречия, произтичащи от опитите за създаването на „морални“ машини имат поне две ключови последствия. От една страна, те илюстрират несъстоятелността в утвърждаването на т.нар. силни и слаби „морални“ сценарии за създаването на изкуствен интелект по аналогия с т.нар. сценарии за силен и слаб изкуствен интелект. От друга страна, въпросните противоречия ни връщат към необходимостта от преосмисляне на прозорливата констатация на Уолач и Алeн, а именно — в стремежа си да формулираме и разберем тези предизвикателства в сферата на машинната етика, всички ние осъзнаваме какви невероятно забележителни същества са хората сами по себе си.
Харесване на това:
Харесвам Зареждане...