Dec. 11th, 2017

vlkamov: Рембрандт. Автопортрет с широко открытыми глазами. (Default)
У ушибленных экономиксом есть такая присказка, мол, капиталисты дерутся за рынки, отсюда и войны. Даже беглого взгляда на историю экспансии капитализма видно, что это не так. Какие рынки были завоеваны при истреблении американских индейцев ? Колонизованная Африка стала рынком ?
Единственно - за китайский рынок опиума действительно была война, причем против китайского же правительства.

Вот сейчас забеспокоились, что роботы вытеснят людей с рабочих мест. А ведь вытесненные т.о. и с рынков уйдут тоже. Значит, если вы меняете рабочих на роботов, или хотя бы предупредждаете об этой опасности, то болтать одновременно про захват рынков - это шиза. Лечиться надо, а не расссуждать
vlkamov: Рембрандт. Автопортрет с широко открытыми глазами. (Default)
Регулярно напоминаю телеологически девственной аудитории, что цель общества [разумных] - развитие. Однако нижеперепощенный текст заставил подумать совершенно крамольную мысль. Вот это
она сама научилась не умирать, так как это дает больше пищи ее любопытству. Правда дальше середины первого уровня пока пройти не может, потому что там требуется очень сложная последовательность четких действий. В результате система отлично предсказывает, что в этом месте она умирает, и ей перестало быть интересным идти дальше.

позволяет подумать, а не достаточно ли в качестве цели - удовлетворение любопытства ? Более того, интуитивно мы чувствуем, что в космос идти надо, но с развитием это напрямую не связано, приходилось изобретать многоходовые комбинации, что во избежание глобальных катастроф, угрожающих всем виду, надо иметь резервные площадки, в том числе и вне солнечной системы.

А тут - напрямую.

О любопытстве нейросетей




На dirty нашелся годный
текст про любопытство нейросетей, достойный того, чтобы перепостить его без исправлений:
----------
Нейросеть самостоятельно научилась играть в Супер Марио при помощи своего любопытства. Как же моделируется любопытство? Это похоже на обучение с подкреплением, только наоборот. При обучении с подкреплением система получает плюшки за правильные действия, и по попе за неправильные. А тут наоборот — чем хуже система предсказывает результат своего действия, тем чаще старается его совершать. И это внутреннее подкрепление, а не внешнее — система сама себе начисляет плюшки.

Например, нейросеть очень быстро перестала нажимать кнопку "вниз", потому что уже заранее знает, что при нажатии ничего не происходит. С кнопками "вверх" и "вправо" наоборот — все время происходит что–то новое, часто неожиданное. Она плохо предсказывает что, поэтому жмет на них снова и снова. Интересно, что она сама научилась не умирать, так как это дает больше пищи ее любопытству. Правда дальше середины первого уровня пока пройти не может, потому что там требуется очень сложная последовательность четких действий. В результате система отлично предсказывает, что в этом месте она умирает, и ей перестало быть интересным идти дальше.

В этом подходе есть и другая ловушка. Если, например, смотреть на белый шум на телевизоре, то практически невозможно предсказать, как он будет выглядеть в следующую минуту. В результате система может залипнуть, потому что на экране все время происходит что–то неожиданное на уровне пикселов. И таких вещей на самом деле много — листья на дереве, облака и т.д. Чтобы этого избежать, надо абстрагироваться от пикселов и мыслить более релевантными категориями. Например, можно игнорировать вещи, которые не влияют на агента, и на которые агент не может повлиять.
----------

Искусственные нейросети становятся все более похожими на человеческое сознание. Скайнет грядет.

На картинке к посту та самая нейросеть играет в того самого Марио.

Profile

vlkamov: Рембрандт. Автопортрет с широко открытыми глазами. (Default)
vlkamov

July 2025

S M T W T F S
  1 2 34 5
6 7 8 9 10 11 12
13141516171819
20212223242526
2728293031  

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jan. 9th, 2026 07:55 am
Powered by Dreamwidth Studios