Образование для образованных. 2021 - страница 36



Вообще, свежесть общецивилизационного, а не узкоприкладного знания – это отдельный важный вопрос, и его затронем чуть попозже. Пока же разбираемся с вопросом о самом различении умений и навыков с повсеместной используемостью в разных ситуациях и умений и навыков с прикладной более узкой применимостью. Одним учат в детском саду, школе, бакалавриате и это не предполагает «профессионализма», а другим – в магистратуре, и там даются «профессиональные» навыки и умения.


ПРЕДОБУЧЕНИЕ В МАШИННОМ ИНТЕЛЛЕКТЕ


Какой-то аналог этой ситуации с общим предобучением в детском саду, школе, бакалавриате и потом дообучением целевому прикладному мастерству в магистратуре может быть подсмотрен в исследованиях по машинному интеллекту. Там ведь стоит такая же задача по обучению нейронной сети самым разным прикладным умениям (о мастерстве/компетенциях в применении к нейронным сетям говорить сложно: там ведь включается в разговор личное отношение к делу, в отличие от знаний, навыков, умений, которые демонстрируются и вне связи с личным отношением. То есть нейронная сетка может быть умелой, но не может продемонстрировать мастерство!).

Говорят об этом обучении/learning нейронных сетей ровно тем же языком, которым говорят об обучении людей. Но говорят точнее, ибо математиков и логиков в сфере AI больше, чем среди педагогов, и решают эти математики задачи более трудные: компьютеры научить интеллекту как умению решать задачи, ранее не встреченные в учебных примерах, труднее, чем людей. Поэтому мы активно будем делать «реэкспорт» идей из сферы инженерии AI в сферу образования людей, включая «реэкспорт» терминологии. После того как люди из AI взяли эти идеи из образования, почистили и обогатили их, мы возьмём их и опять применим к обучению людей.

Главное направление в обучении AI решению самых разных задач, связанных с пониманием естественного языка – это использование так называемых больших языковых моделей. Берётся огромная нейронная сеть. Насколько огромная? На данный момент речь идёт о единицах триллионов настраиваемых индивидуально в ходе обучения параметров, но уже ожидается и до сотни триллионов параметров. Этой нейронной сети скармливается огромное/gargantuan число самых разных текстов на всех доступных языках (так, для обучения языковой модели GPT-3 вся википедия составила только 3% от использованных текстов). В этих текстах отражены как и какие-то свойства языков в целом (кормят текстами отнюдь не только одного языка, и даже не только естественного языка, но кодами на языках программирования), так и какие-то свойства мира (ибо все эти тексты о чём-то в мире, речь не идёт о фантастике и сказках). В последнее время в обучение добавляют не только тексты, но и фотографии, рисунки, и даже видео. Нейронная сетка выучивает из всех этих описаний мира что-то общее про языки и мир. Это называется pre-train, предобучение. И занимает это предобучение довольно много времени и денег – одна предобученная языковая модель на пару сотен миллиардов параметров на середину 2020 года могла обходиться в десятки миллионов долларов78, и эта ситуация не меняется: стоимость суперкомпьютеров падает, но размеры нейронных сетей растут, и речь идёт уже о триллионах параметров! Бакалавриат для нейронных сетей оказался весьма недешёв, и занимаются созданием универсальных предобученных языковых моделей только несколько очень крупных и богатых фирм мира (в России, например, это Сбер и Яндекс