Съществува сцена в адаптацията на книгата „Контакт“ от Карл Сейгън, в която главната персонаж, астроном, открива радиосигнал от извънземна цивилизация и е разглеждана като представител на човечеството в среща с тези същества. Международната комисия, провеждаща интервюто, ѝ задава въпроса: „Ако имаше възможност да зададеш само един въпрос на извънземните, какъв би бил той?“ Нейният отговор е: „Бих ги попитала: Как го направихте? Как еволюирахте и оцеляхте в технологичния си пубертет, без да се самоунищожите?“
Разсъждавайки за съвременното положение на човечеството спрямо изкуствения интелект, мислите ми постоянно се връщат към тази сцена, тъй като зададеният въпрос е изключително актуален за нашата ситуация и бих желал да имаме отговорите на извънземните, които да ни водят. Считам, че навлизаме в важен момент на преход, който ще постави предизвикателства пред нашето съществуване. Човечеството е на път да придобие почти немислима мощ в технологичен аспект и е неясно дали нашите социални, политически и технологични структури са готови да се справят с това. Това заявява Дарио Амодей, главен изпълнителен директор на „Антропик“.
Дарио Амодей е проучвател в областта на изкуствения интелект от САЩ и предприемач. Той е съосновател и главен изпълнителен директор на компанията Anthropic, която разработва серия от големи езикови модели под името Claude. Преди това, той е бил вицепрезидент по изследванията в OpenAI.
В есето си „Машини на любяща милост“ съм се опитал да представя визията за зряла цивилизация, в която рисковете са управлявани и мощният изкуствен интелект е използван с цел повишаване на качеството на живот за всички. Улесних мнението, че ИИ може да допринесе за значителни напредъци в различни области, включително биология, невронауки, икономика, мир в света и работата на хората. Смятам, че е важно да представя нещо вдъхновяващо, което да мотивира хората, като предизвикам диалог между поддръжници и критици на безопасността на ИИ. В настоящето есе искам да се фокусирам върху самия процес на преход, да картографирам рисковете и да започна разработването на план за справяне с тях. Вярвам в способността на човечеството да преодолее предизвикателствата, затова е важно да бъдем реалисти относно ситуацията, споделя Амодей.
При обсъждането на ползите от ИИ, считам, че е необходимо също толкова внимание да се обърне и на рисковете. По-конкретно, важно е:
Да избягваме предвещания на бедствие
Под това имам предвид не само мисълта, че залятие е неизбежно, но по-общо – опасността от квазирелигиозен тон в дискусията за рисковете от ИИ. Въпреки че много хора са говорили разумно за тези рискове, през 2023-2024 година по време на нарастващите тревоги, неразумни гласове взеха превес, често чрез сензционни публикации в социалните медии. Тези мнения използваха приглушен език, напомнящ на религия или научна фантастика, призовавайки за крайни действия без необходимата доказателствена основа. Веднага стана ясно, че това ще предизвика обратна реакция и дискусията ще стане поляризирана. През 2025-2026 година, динамиката вероятно ще се обърне, акцентирайки върху възможностите на ИИ, а не рисковете, което е жалко, защото технологията не се влияе от модните трендове и в действителност сме по-близо до сериозни опасности, отколкото преди три години. Урокът е, че трябва да говорим за рисковете по реалистичен и прагматичен начин, на базата на факти.
Да приемем несигурността
Съществуват многобройни варианти, в които тревогите, които изброявам, могат да се окажат неуместни. Ничия цел е да твърди, че ситуацията е сигурна. Най-очевидното е, че ИИ може просто да не напредне така бързо, както предвиждам. Или, дори ако напредне, рисковете, които обсъждам, може просто да не се осъществят или да се появят нови, непредвидени. Никой не може да предвиди бъдещето с абсолютна точност, но задължително трябва да направим всичко възможно да планираме.
Да интервенцираме колкото е възможно по-прецизно
Адресирането на рисковете от ИИ ще изисква сътрудничество между частните компании и правителства. Ясно е, че доброволните действия от страна на компаниите са от съществено значение, но също така е вероятно правителствата да трябва да предприемат действия. Необходимо е обаче те да бъдат разумни, за да не разрушават икономическа стойност или да принуждават скептични участници. Често регулациите се оказват контрапродуктивни или дори влошават проблема, който искат да решат. Следователно регулациите трябва да бъдат разумни, да предотвратяват нежелани последици и да налагат минимално необходимото натоварване.
Лесно е да се казва, че няма действие, което да е прекалено радикално, когато човешкото съществуване е в игра, но такава позиция може да доведе до нежелани последствия. Смятам, че в един момент може да се стигне до необходимост от по-сериозни действия, но те ще зависят от по-силни доказателства за непосредствени опасности.
С цялото това казано, смятам, че началото на дискусията за рисковете от ИИ трябва да избере основата, върху която започна, когато говорим за ползите: да бъдем точни относно нивото на ИИ, за което дискутираме. Нивото на ИИ, което буди у мен цивилизационни тревоги, е мощният ИИ, описан в „Машини на любяща милост“.
Под „мощен ИИ“ визирам модел, вероятно сходен на съществуващите езикови модели. Той проявява по-чисто интелект, по-висок от носител на Нобелова награда в множество области. Можем да говорим за ИИ, който да осъществява сложни задачи и автономно изпълнява поставени му задачи.
В заключение, мога да обобщя, че става въпрос за „държава на гениите в датацентъра“.
Както посочих в „Машини на любяща милост“, мощният ИИ може да бъде само на 1-2 години разстояние, но и може да е много по-далеч. Кога точно ще се появи е сложен въпрос, но наблюденията показват, че вероятността да дойде скоро е значителна.
Аз и моите съоснователи бяхме сред първите, които документираха „законите на мащабирането“ на ИИ, които показват, че при добавяне на ресурс, ИИ системи стават все по-добри. В момента сме свидетели на напредък в решаването на нерешими математически проблеми и ИИ вече играе важна роля в разработката на следващото поколение ИИ системи. Този прогрес вероятно се ускорява, и това трябва да ни накара да обмислим по-сериозно рисковете.
В това есе приемам, че моята интуиция е поне частично вярна. Понимам, че мощният ИИ не идва непременно след 1-2 години, но като цяло рискът от неговото възникване е сериозен и изисква внимателно отношение и подготовка.
