максим
/
«Мы знаем больше, чем можем выразить». Так, нажимая на педали, мы не смогли бы объяснить наши ...

«Мы знаем больше, чем можем выразить». Так, нажимая на педали, мы не смогли бы объяснить наши движения, а тем более физические законы, управляющие ими. Наши повседневные действия предполагают едва ли не бесконечную сумму неявных знаний. То есть мы применяем своего рода тайную эвристику, составленную из невидимых правил и бессознательных процедур. Парадокс Поланьи в каком-то смысле равноценен нашему месье Журдену, который говорил прозой, но не знал об этом.
Вот этот парадокс и задает четкие границы автоматизации. В самом деле, как инженеры могут запрограммировать компьютер, который бы моделировал процесс, неизвестный им самим во всех подробностях? Код опирается на представление, данное в явном виде. Чем сложнее разбить определенную задачу на отдельные этапы, тем с меньшей вероятностью ее сможет выполнять робот. Сложная среда с неточными параметрами бросает серьезный вызов алгоритмам, даже когда людям она кажется очевидной и «естественной». Парадокс Поланьи относится, таким образом, к сложным функциям, требующим интуиции и творческих способностей (например, таким как речь адвоката), но также и к более скромным видам деятельности, требующим адаптации к изменчивым ситуациям или к непредсказуемым человеческим взаимодействиям (таким как обслуживание в ресторане).
Для решения этих проблем специалисты по компьютерным наукам могут двигаться в двух направлениях. Первое – это упрощение среды. Если мы не можем окликнуть официанта, а должны занимать очередь нажатием кнопки, если мы больше не имеем возможности заменить картофель фри салатом или сделать из закуски основное блюдо, если, наконец, клиент должен выбирать вино самостоятельно, без долгих объяснений, тогда работу официантов, может быть, и правда автоматизируют. Но зачем вообще ходить в ресторан при таких условиях? Второй вариант, более перспективный, – дать возможность машине самой учиться. К этому и сводится идея «обучения без учителя», то есть техника обучения, при которой алгоритм получает минимальные инструкции и выводит свои собственные правила на основе актуальной среды. Так, в MIT я видел программу, которая учится говорить «как ребенок», выслушивая истории, связанные с определенными картинками. Точно так же знаменитая программа AlphaZero, разработанная компанией DeepMind, учится играть в шахматы и в го, попросту играя против самой себя, безо всяких внешних инструкций. Компьютеру, следовательно, больше не нужно усваивать формальные правила, поскольку он может, опираясь на методы статистического вывода, выработать определенную форму правильной интуиции. Но, как отмечает Дэвид Отор, даже лучшему алгоритму всегда будет сложно определять цель: например, что стул сделан, чтобы сидеть, тарелка – чтобы есть, а шахматная доска – чтобы играть.
Вот этот парадокс и задает четкие границы автоматизации. В самом деле, как инженеры могут запрограммировать компьютер, который бы моделировал процесс, неизвестный им самим во всех подробностях? Код опирается на представление, данное в явном виде. Чем сложнее разбить определенную задачу на отдельные этапы, тем с меньшей вероятностью ее сможет выполнять робот. Сложная среда с неточными параметрами бросает серьезный вызов алгоритмам, даже когда людям она кажется очевидной и «естественной». Парадокс Поланьи относится, таким образом, к сложным функциям, требующим интуиции и творческих способностей (например, таким как речь адвоката), но также и к более скромным видам деятельности, требующим адаптации к изменчивым ситуациям или к непредсказуемым человеческим взаимодействиям (таким как обслуживание в ресторане).
Для решения этих проблем специалисты по компьютерным наукам могут двигаться в двух направлениях. Первое – это упрощение среды. Если мы не можем окликнуть официанта, а должны занимать очередь нажатием кнопки, если мы больше не имеем возможности заменить картофель фри салатом или сделать из закуски основное блюдо, если, наконец, клиент должен выбирать вино самостоятельно, без долгих объяснений, тогда работу официантов, может быть, и правда автоматизируют. Но зачем вообще ходить в ресторан при таких условиях? Второй вариант, более перспективный, – дать возможность машине самой учиться. К этому и сводится идея «обучения без учителя», то есть техника обучения, при которой алгоритм получает минимальные инструкции и выводит свои собственные правила на основе актуальной среды. Так, в MIT я видел программу, которая учится говорить «как ребенок», выслушивая истории, связанные с определенными картинками. Точно так же знаменитая программа AlphaZero, разработанная компанией DeepMind, учится играть в шахматы и в го, попросту играя против самой себя, безо всяких внешних инструкций. Компьютеру, следовательно, больше не нужно усваивать формальные правила, поскольку он может, опираясь на методы статистического вывода, выработать определенную форму правильной интуиции. Но, как отмечает Дэвид Отор, даже лучшему алгоритму всегда будет сложно определять цель: например, что стул сделан, чтобы сидеть, тарелка – чтобы есть, а шахматная доска – чтобы играть.

Привожу отрывок из его новой книги. "ИИ приведет к тому, что для человечества, а вместе с ним и для всей биологической жизни, начнется новая эпоха. В строках кода обязательно появится сознание. Информационные системы обретут автономию, попирая своих создателей и постепенно захватывая все больше и больше власти. Само бытие станет виртуальным, выйдя за пределы конечности и бессмертия. ИИ вырвется из своей клетки, захватит интернет и сможет контролировать физическую инфраструктуру..."

Отчасти, это может и замечательно, но не "захиреют" ли при этом наши собственные мозги? Хотя, как мне кажется, Гаспар Кёниг сам опасается этого.
Конец индивидуума. Путешествие философа в страну искусственного интеллекта.