Всеукраїнський загальнополітичний освітянський тижневик
Персонал Плюс - всеукраїнський тижневик

В Google злякалися непередбачуваності систем штучного інтелекту

Дослідники з команди Google AI, стурбовані безконтрольним розвитком ІІ, запропонували створити платформу з вивчення потенційних небезпек штучного інтелекту.

«Ми вважаємо за необхідне почати розробляти практичні підходи до створення безпечних і надійних систем ІІ», - написав у блозі Кріс Олах, один з учених Google AI.

Олах і його колеги наводять приклад робота, який навчається прибирати приміщення. І може навчитися тому, чого не слід. Наприклад, як створений Томом Мерфі бот для гри в Nintendo, який навчився постійно натискати кнопку паузи, граючи в «Тетріс». Що якщо робот навчиться збивати вази на підлогу, бо так простіше забиратися? Як перешкодити машині робити дурні і небезпечні речі, наприклад, мити мокрою ганчіркою розетки? Як пояснити, що те, що можна робити вдома, не можна робити в офісі?

Вчені Google AI встановили кілька конкретних принципів для дослідників ІІ: «уникати негативних побічних ефектів», наприклад, або «безпечне дослідження». Це практичні поради, але теоретичне обгрунтування ще не визначено. Оскільки ні у кого немає хороших відповідей, Олах вважає, що пора почати їх шукати. ІІ не буде нас чекати, пише Wired.

Системи зразок AlphaGo вчаться аналізувати величезний обсяг даних, але навчається на їх основі комп'ютер самостійно. Він грає сам з собою в ігри і приходить до рішень, які людині в голову не приходили. І поводиться непередбачувано.

Поки машини не можуть приймати важливі рішення самостійно, тому що моральні питання для них незрозумілі. Але вже ведуться розробки і в цьому напрямку. Наприклад, Кен Форбус з Північно-Західного університету створив механізм відображення структур, який дозволяє комп'ютеру робити висновки на основі аналогій. «В теорії можна навчити його вести себе більше як людина», - говорить він.

Але до цього ще далеко, тим більше що і люди не можуть прийти до спільної думки, що таке добре, а що - погано. Тим часом, машини розумнішають. І питання не в тому, чи зможуть вони коли-небудь виграти в «Тетріс» не шахраюючи. А в тому, чи зможуть вони зрозуміти, що шахраювати недобре.

вгору

© «ПЕРСОНАЛ ПЛЮС». Усі права застережено.

Передрук матеріалів тільки за згодою редакції.
При розміщенні матеріалів в Інтернет обов’язкове посилання на сайт видання. Погляди авторів можуть незбігатися з позицією редакції

З усіх питань звертайтеся, будь ласка, gazetapplus@gmail.com