Група вчених, очолювана дослідником з університету Брауна, оголосила про досягнення штучним інтелектом критичної точки у своєму розвитку. Прогрес в аналізі мови, у комп’ютерному зорі та розпізнаванні образів доводить, що ШІ тепер стосується життя людей на побутовому рівні. Це призводить до необхідності оцінки та управління ризиками, пов’язаними з системами, керованими ШІ.
Звіт, у якому вчені опублікували свої останні висновки, було підготовлено за участю фахівців із галузі комп’ютерних наук, публічної політики, а також психології, соціології та інших дисциплін.
За п’ять років ШІ перейшов від керованих контрольованих лабораторних умов до технологій, які виходять у суспільство і стосуються життів людей. Це призводить до можливостей, про які ми могли тільки мріяти ще 5-10 років тому. Водночас індустрія починає розуміти вплив ШІ на суспільство, і наступним кроком буде розгляд способів отримання вигоди від ШІ за мінімізації ризиків, — повідомив Майкл Літтман, керівник панелі вчених.
Наприклад, в опрацюванні природної мови системи ШІ не тільки розпізнають слова, а й розуміють, як вони використовуються. Це покращує пошук в інтернеті, інтелектуальні текстові додатки, чат-боти та інші сфери. Деякі системи можуть створювати якісні і оригінальні тексти, які важко відрізнити від текстів, які були створені людиною.
ШТУЧНИЙ ІНТЕЛЕКТ НА СЬОГОДНІ, ДОСЯГ КРИТИЧНОЇ ТОЧКИ У СВОЄМУ РОЗВИТКУ
Сучасні системи штучного інтелекту здатні точно діагностувати рак та інші захворювання, не поступаючись досвідченим патологам. Застосування ШІ також дає змогу дослідити геном людини з нової перспективи та прискорити розробку нових лікарських препаратів. Хоча безпілотні автомобілі ще не стали масовим явищем, системи допомоги водієві на базі ШІ стали обов’язковим обладнанням для більшості автомобілів.
Незважаючи на те, що вчені не турбуються про те, що надінтелектуальні машини захоплять світ, вони визнають, що ризики розвитку технології набагато тонші, але не менш небезпечні.
Одна з таких загроз — зловмисне використання ШІ для створення дезінформації або паплюження репутації людей через створення діпфейків. Або ж використання ШІ для створення ботів, що можуть маніпулювати громадською думкою.
Інші проблеми випливають із «нейтральності та неупередженості» під час ухвалення рішень ШІ. Незважаючи на те, що такі рішення сприймаються суспільною свідомістю як об’єктивні, вони можуть бути наслідком дискримінації.
Серед інших небезпек, що пов’язані із розвитком ШІ, вчені називають «технопанацею». ШІ може бути сприйнятий як універсальне рішення для багатьох проблем, хоча він є лише інструментом їх вирішення. Під час використання ШІ для розв’язання простих завдань можуть виникати більш серйозні проблеми. Наприклад, системи, які автоматизують доступ до різного роду соціальних послуг, можуть почати дискримінувати як мігрантів, так і людей у важкій ситуації.
