Newsweek: Штучний інтелект попереджає, що може «зашкодити» людству

Штучний інтелект сам попередив людей, що може в майбутньому нашкодити людству.

У Британії перед численною аудиторією виступила машина, яку творці нагородили штучним інтелектом. Робот обговорював з людьми перспективи і небезпеки ШІ, і раптом заявив, що нова технологія може «завдати шкоди людству». Але це не зупинило присутніх, які за підсумками вечора проголосували за те, щоб можливості ШІ активно використовувалися, — пише Newsweek.

Хто за?

 Перемога машини виявилася неоднозначною. За те, щоб використовувати штучний інтелект, проголосувало трохи більше половини аудиторії. Сама машина склала думку про себе, виходячи з тисячі аргументів, які її творці отримали від користувачів мережі за кілька днів до дебатів.

Команда творців машини сподівається, що її можна буде використовувати як інструмент для збору відгуків від великих груп – наприклад, урядами, які цікавляться думкою громадськості, або компаніями, які хочуть зрозуміти, як до них ставляться потенційні клієнти.

Так чи ні

 Щоб скласти базу даних, на основі якої робот міг би зробити власні «висновки», повідомлення з аргументами поділили на дві частини: за і проти використання ШІ. Незначну частину повідомлень відсіяли, оскільки вона не підходила для обробки.

Грунтуючись на цих даних, спеціально створена програма шукала і визначала найпереконливіші й найбільш аргументовані думки. Машина «запам’ятовувала» ці аргументи, пізніше повторюючи їх, коли в дискусії спливали ті чи інші пропозиції.

Добро і зло

 На підтримку використання ШІ часто звучав той факт, що такий крок дозволив би створити нові робочі місця, або збільшити продуктивність вже існуючих робочих місць.

Однак проти такого рішення наводилися не менше вагомі аргументи: штучний інтелект не в змозі зробити моральний вибір, а люди все ще упереджено ставляться до роботів і ШІ. Машина під час дискусії заявила, що її технологія не дозволяє їй ухвалювати морально правильні рішення, оскільки на це здатна тільки людина. А це означає, що рішення ШІ можуть бути потенційно небезпечними для людства.

На повторі

Разом із тим, алгоритм, продемонстрований IBM, працював не без помилок. Машина неодноразово повторювала раніше наведені аргументи, коли намагалася міркувати про те, чи зможе робот конкурувати з людиною у виконанні монотонних завдань. Іншою проблемою стало те, що штучний інтелект сприйняв людську упередженість як виправдання своєму існуванню, а не як загрозу йому.

Незважаючи на це, робот навіть кілька разів пожартував, «діставши» жарти зі свого особливого сховища.

Слово людини

 Експерти зі ШІ теж губляться в протиріччях, коли йдеться про шкоду і переваги нової технології. Багато хто говорить, що майбутнє ШІ буде визначатися тим, як люди запрограмують алгоритми для роботи.

«Я думаю, що ми скористаємося цією силою, щоб зробити світ кращим. Наприклад, ми можемо практично викорінити глобальну бідність, значно знизити захворюваність і забезпечити кращу освіту майже для всіх на планеті», — вважає Ерік Бріньольфссон, директор Ініціативи MIT з цифрової економіки.

«Тим не менше, штучний інтелект може бути використаний елітами для отримання ще більшого багатства і влади, для створення нової суперзброї. Правильне питання полягає не в тому, «що може статися», а в тому, «як ми вирішимо вчинити»», — додає він.

Читайте також — Foreign Рolicy: Чи можуть комікси врятувати міжнародні відносини? 

Матеріали Огляд ІноЗМІ містять оцінки виключно зарубіжних ЗМІ і не відображають позицію  RabinovichTV.

 

0 Комментарии Присоединиться к обсуждению →


Добавить комментарий