Почему мы помним. Как раскрыть способность памяти удерживать важное - страница 15
Предположим, я попрошу вас рассказать, что вам известно о Париже. Вы могли бы начать с того, что это город во Франции, он знаменит музеями и ресторанами, там стоит Эйфелева башня. Вы, пожалуй, будете на 100 % уверены в этих фактах, даже если не сможете вспомнить, когда и где узнали их впервые. А теперь предположим, что я попрошу вас рассказать, бывали ли вы в Париже. Если бывали, то для ответа на этот вопрос вы, вероятно, обратитесь к информации, которая погрузит вас в конкретный опыт: аромат каштанов на жаровне уличного торговца по дороге от вашей гостиницы к метро, очередь к лифту на вершину Эйфелевой башни зябким осенним вечером незадолго до заката, вид с башни на город, когда загораются огни. Дело не в силе или слабости воспоминаний – вы можете с уверенностью вспоминать факты о Париже (семантическая память) и заново переживать поездку в Париж (эпизодическая память), но эти два вида опыта совершенно различны.
Вначале рассуждения Тульвинга звучали для психологов спорно. Но за последующие 50 лет ученые собрали множество свидетельств, подтверждающих его предположения о том, что мы способны перезагружать сознание до состояния, в котором оно пребывало во время события в прошлом. Эпизодическая память – не просто вспоминание: она соединяет нас с мимолетными мгновениями прошлого, которые делают нас теми, кто мы есть сейчас.
Люди – роботы: 1:0
Разница между эпизодической и семантической памятью – основной фактор, позволяющий людям так быстро и эффективно учиться. Одно из свидетельств в пользу этого, как это ни странно, обнаруживается в исследованиях того, какие виды научения особенно трудно даются машинам. Многие продвинутые программы с искусственным интеллектом – от умных помощников вроде Алексы и Сири до прошивки беспилотных автомобилей – основаны на «нейронных сетях» – алгоритмах, которые в абстрактном виде воспроизводят научение так, как оно устроено в мозге[42]. Каждый раз, когда нейронная сеть при тренировке заучивает некий факт, меняются связи между ее смоделированными нейронами. По мере того как сеть выучивает все больше фактов, смоделированные клеточные ансамбли постоянно перекомпоновываются, голосуя уже не за отдельный выученный факт, а отражая целую категорию знания. Так, например, вы можете научить сеть следующему:
«Орел – птица. У него есть перья, крылья и клюв. Он летает».
«Ворон – птица. У него есть перья, крылья и клюв. Он летает».
«Сокол – птица. У него есть перья, крылья и клюв. Он летает».
Со временем компьютерная модель все лучше учится фактам о новых птицах, так как опирается на уже известное. Если сеть узнает, что чайка – птица, клеточные ансамбли могут заполнить пропуски и догадаться, что чайка умеет летать. Но что, если научить ее чему-то другому?
«Пингвин – птица. У него есть перья, крылья и клюв. Он плавает».
Теперь у машины возникнут сложности: пингвин отвечает всем признакам птицы, кроме одного. Пингвин – исключение из правила, согласно которому все птицы летают, так что, когда компьютер выучит исключение, он забудет то, что выучил раньше о признаках птиц. Это называется катастрофической помехой, и для машинного обучения это действительно катастрофа. Решение состоит в том, чтобы учить машину очень медленно: тогда, выучив исключение, она не будет тут же отказываться от правила. Это значит, что для эффективного выполнения задач нейронным сетям нужно очень много тренироваться и им плохо удается быстро приспосабливаться к сложности реального мира. Даже в наши дни самые сложные воплощения искусственного интеллекта нужно тренировать на колоссальных объемах данных, прежде чем они будут способны произвести что-то интересное.