За певних обставин штучний інтелект може стати загрозою для людства, оскільки технологічний сектор провідних країн світу продовжує розвиватися. Про це повідомляє видання The New York Times.
На сьогоднішній день системи штучного інтелекту не становлять прямої загрози екзистенції людей. Однак з розвитком технологій через один, два або п’ять років виникає значна невизначеність. Професор і науковий співробітник Монреальського університету Йошуа Бенжіо вказує на проблему в тому, що немає гарантій, коли саме настане критичний момент, коли ми зіштовхнемося з катастрофою.
За даними The New York Times, компанії можуть надавати системам штучного інтелекту все більше автономії та підключати їх до життєво важливих інфраструктурних систем, таких як електричні мережі, фондові ринки та озброєння. Вибір перейти цю межу може стати причиною проблем, стверджують автори статті.
Космолог з Каліфорнійського університету в Санта-Крузі, Ентоні Агірре, говорить, що на якомусь етапі стане очевидним, що велика система, що керує суспільством і економікою, фактично виходить з-під контролю людини і не може бути відключена так само, як неможливо відключити індекс S&P 500.
The New York Times зазначає, що наразі системи штучного інтелекту часто «зациклюються на повторюваних даних», але ці обмеження можуть бути подолані, якщо розробники продовжать вдосконалювати ці програми. Оскільки системи штучного інтелекту навчаються на значно більшому обсязі даних, ніж люди здатні охопити, вони вже проявляють неочікувану поведінку. Деякі експерти висловлюють побоювання, що зростання потужності цих систем, за допомогою навчання на все більшому обсязі даних, може призвести до розвитку шкідливих і навіть небезпечних звичок.
На початку травня керівники провідних компаній в галузі штучного інтелекту випустили відкритий лист, в якому попереджали про потенційну загрозу, яку штучний інтелект може становити для екзистенції людства. Вони закликали розглядати технології штучного інтелекту нарівні з пандеміями і ядерними війнами.
Попередження щодо можливої загрози штучного інтелекту відображає значимі аспекти, які потрібно враховувати при продовженні розвитку цієї технології. Стратегічне планування, етичні стандарти та встановлення меж контролю стають надзвичайно важливими, щоб гарантувати безпеку та ефективність штучного інтелекту. Дослідники повинні спільно працювати, щоб забезпечити, що системи штучного інтелекту залишаються в межах людського контролю і працюють на благо суспільства.
Запобігання можливим загрозам штучного інтелекту потребує міжнародного співробітництва, включаючи уряди, наукові установи і приватні компанії. Тільки шляхом об’єднання зусиль та розробки прозорих і безпечних стандартів можна забезезпечити, що штучний інтелект служить на користь людства, а не становить загрозу його існуванню.
Для досягнення цієї мети необхідно активно вивчати та розробляти етичні принципи, які повинні керувати розвитком і застосуванням штучного інтелекту. Важливо створити механізми перевірки та контролю, щоб уникнути небажаних наслідків та застосування штучного інтелекту в шкоду людям або суспільству в цілому.
Паралельно з цим, потрібно інвестувати в дослідження з областей, пов’язаних із безпекою та забезпеченням контролю над штучним інтелектом. Розробка захисних механізмів, які дозволять виявляти та запобігати небажаним або небезпечним діям штучного інтелекту, є ключовим аспектом для забезпечення безпеки.
Крім того, необхідно залучати широку громадськість до дискусій про штучний інтелект і його майбутнє. Створення платформ для обговорення етичних, соціальних і правових аспектів штучного інтелекту допоможе врахувати різноманітні перспективи та думки людей і побудувати штучний інтелект, що відповідає загальному благу.
