Матеріал підготовлений на основі виступу українського історика філософії, перекладача, доктора філософських наук Андрія Дахнія на «Sophos. Joint. Cyber 3.0»
Штучний інтелект став однією з ключових тем сучасності не лише через свої технічні можливості, а й через філософські наслідки. Його поява змінює уявлення про те, що таке справедливість, свобода і навіть людська гідність.
Машини дедалі більше беруть на себе завдання, які колись виконували люди: від перекладів і написання текстів до журналістики й аналітики. Це створює нову реальність, у якій потрібно замислюватися не тільки над тим, що може зробити ШІ, а й над тим, як його використання змінює соціальні відносини, моральні норми й майбутнє суспільства.
Одним із перших полів, де гостро постає проблема справедливості, є освіта. Студенти активно використовують алгоритми на кшталт ChatGPT для написання есеїв, рефератів чи перекладів. Це викликає питання: чи справедливо змагатися за оцінки, якщо частина студентів виконує завдання самостійно, а інші — за допомогою машини?
Викладачі зіштовхуються з новою реальністю, у якій важко відрізнити, де працювала людина, а де — алгоритм. Водночас доступ до таких інструментів теж асиметричний: одні можуть ними користуватися, інші — ні.
Усе це змінює не лише освітній процес, а й самі уявлення про чесність і рівність у навчанні.
Інша площина проблеми — моральні дилеми, що постають перед алгоритмами. Безпілотні автомобілі є класичним прикладом: у ситуації неминучої аварії програма має вирішити, кого врятувати — пасажира чи пішохода. Подібні випадки показують межі алгоритмізації моральності, адже немає універсального рішення, яке влаштувало б усіх. Це ставить під сумнів саму ідею, що машина може діяти справедливо.
Алгоритми здатні швидко аналізувати дані й ухвалювати рішення, але вони не мають людського досвіду співчуття, відповідальності чи етичної рефлексії. Виходить, що чим більше техніка бере на себе функції людини, тим гострішим стає питання: хто відповідальний за наслідки?
Залежно від політичного контексту, штучний інтелект може мати протилежні наслідки. У демократичних суспільствах він здатний розширювати доступ до знань, мінімізувати людські упередження, підвищувати прозорість рішень і тим самим сприяти справедливості. Але в авторитарних режимах ті самі технології стають інструментом контролю: через системи стеження, цензуру, пропаганду чи використання у військовій сфері.
Таким чином утворюється асиметрія справедливості: для одних суспільств ШІ відкриває нові можливості свободи, для інших — стає механізмом поневолення. Це змушує усвідомити: технологія сама по собі нейтральна, і саме політичні та культурні умови визначають, чи вона буде служити визволенню, чи репресіям.
Питання справедливості завжди було центральним для західної філософської традиції, починаючи від античності. Платон і Аристотель шукали гармонію між особистим і суспільним, модерна філософія додавала акцент на рівність і права людини. Проте жодна концепція не дала універсального рецепта.
З появою штучного інтелекту проблема загострюється: як інтегрувати цю багатовимірну ідею у логіку алгоритмів? Машина діє за формальними правилами, тоді як справедливість часто вимагає індивідуального підходу, врахування контексту, співчуття.
Тому завдання полягає не в тому, щоб програмувати універсальні моральні формули, а радше в тому, щоб зробити людину свідомішою і відповідальнішою, розуміючи обмеження технологій.
Штучний інтелект постає дзеркалом людських уявлень про справедливість і водночас викликом для них. У сфері освіти він виявляє проблеми рівності та чесності, у техніці — ставить перед моральними дилемами, у політиці — може або підсилювати демократію, або зміцнювати диктатуру.
Усі ці прояви показують: технологія лише множить те, що вже закладено в суспільстві.
Відповідальність за справедливість завжди залишається на людині. Машини можуть пришвидшувати процеси й допомагати приймати рішення, але вони не здатні гарантувати морального виміру. Саме тому питання справедливості — це не те що можна делегувати алгоритмам, а виклик, який постійно має брати на себе людина.