Створена програма AlphaGo, яка обіграла людину в старовинну китайську гру “Го”

122 Views Comment Off

Досягнення належить програмі AlphaGo – розробці лондонської компанії DeepMind, яка 2 роки тому була куплена Google за $ 400 млн. Фірма займається дослідженнями в галузі штучного інтелекту.

Комп’ютер зумів перемогти триразового чемпіона Європи з “Го” Фань Хуея (Fan Hui), обігравши його в 5 партіях з 5. До цього в змаганнях з чемпіонами машини добивалися перемоги, лише маючи істотну фору з самого початку гри. До гри з Фань Хуеєм програма AlphaGo також провела серію матчів в “Го” з іншими комп’ютерними програмами, поступившись лише в одному з 495 матчів. У березні 2016 програма зустрінеться з корейцем Лі Седолем (Lee Sedol), який вважається кращим гравцем в “Го” у світі.

За словами фахівців, результат AlphaGo має важливе значення у справі розробки штучного інтелекту. AlphaGo була запрограмована лише на перебір можливих ходів, на відміну від шахової програми Deep Blue, яка в 1997 році вперше в історії обіграла світового чемпіона Гаррі Каспарова. Мистецтву гри в “Го” програма навчилася, виявляючи певні закономірності в грі за допомогою абстрактно-навчального алгоритму.

В “Го” існує надзвичайно велика кількість можливих комбінацій фігурок (каменів), розташованих на дошці розміром 19х19 клітин. За підрахунками математиків, число можливих комбінацій становить 10 в ступені 170 – це більше, ніж кількість всіх атомів у Всесвіті.

Для того щоб навчити програму грати в “Го”, творцям довелося провести велику підготовчу роботу, пов’язану з нейронними мережами – математичними моделями, що представляють апаратне втілення пристрою людського мозку. Нейронні мережі штучно моделюють нервові клітини мозку, нейрони, а також зв’язки між ними, які можуть перебудовуватися в процесі навчання програми. AlphaGo розпочала своє навчання з аналізу 30 млн можливих позицій каменів на дошці, узятих із зіграних партій, щоб отримати абстрактну інформацію про гру в цілому, подібно до того, як системи розпізнавання зображень вчаться визначати особи або інші об’єкти на фото по набору найдрібніших точок – пікселів.

Потім AlphaGo грала в “Го” сама з собою на 50 комп’ютерах, удосконалюючи власні навички з кожною новою партією – цей метод відомий під назвою “підкріплене навчання”. Завдяки цьому програма навчилася не тільки перебирати варіанти майбутніх ходів на кілька кроків вперед, але і в цілому аналізувати положення каменів на дошці для вибору найкращої стратегії.

За словами дослідників, непричетних до створення AlphaGo, досягнення творців алгоритму, компанії DeepMind, носить надзвичайно важливий характер, оскільки показує можливості глибокого навчання для штучного інтелекту на базі нейронних мереж. Цей підхід, який виявився успішним для гри в “Го”, може бути застосований і в інших сферах, де необхідний аналіз величезної кількості інформації для прийняття важливого і довгострокового вирішення: формулювання діагнозу та призначення лікування на основі медичних знімків або моделювання кліматичних змін на планеті.

Крім Google, створенням успішної програми для гри в “Го” з чемпіонами також займається інша IT-корпорація – Facebook. У той час, коли були представлені результати успіху AlphaGo, Марк Цукерберг на своїй сторінці в соціальній мережі показав, як розроблена в його компанії програма робить ходи в “Го”, приймаючи рішення лише за 0,1 секунди. “Наш штучний інтелект з’єднує пошуковий підхід, що моделює кожен можливий хід в процесі гри, з системою виявлення ігрових схем, яку створила наша команда з комп’ютерного зору”, – розповів головний конкурент Google у справі навчання комп’ютерів грі в “Го”.

... ... .
In : Техно

Related Articles

404