LLM (Large language model)- продвинутая вычислительная модель, способная анализировать и генерировать тексты на любую тематику.
Появление ИИ – это закономерное следствие роста аппаратных вычислительных возможностей, в меньшей степени – развития программного обеспечения, и, в еще меньшей степени – теоретических и математических прорывов в этой области. Если воспринимать нейросеть как мегамозг и нечто, заведомо мощное и фантастическое, трудно будет добиться критического восприятия машинных «рассуждений».
К моменту появления LLM в смартфонах уже обитали «зародыши» ИИ: распознавание лиц, голоса, видеокамеры давно научились детектировать движение и различные объекты в поле своего зрения. LLM в какой-то степени являются синтезом всех перечисленных технологий. Когда появились достаточно надежные методы распознавания и детектирования тех, или иных объектов и явлений, появление механизма распознавания и реагирования на логически связный текст было лишь вопросом времени и технических возможностей для хранения огромного объёма информации. Давным-давно были придуманы персептрон, машина Тьюринга, не говоря уже о теории вероятности, матлогике и нечёткой логики. Большое количество теоретических и технических прорывов в этой области стало триггером тектонических сдвигов в организации человеческой деятельности, разделении труда человека с машиной и направлении тех. прогресса в принципе.
Мышление LLM представляет собой многомерную ветвящуюся цепочку решений, сгенерированную путём анализа текстового задания. При недостаточной детализации и неоднозначности поставленной задачи (а так у человека чаще всего и бывает) модель генерирует ветвистое завершение своего ответа, ожидая уточнений и подсказок, чтобы двинуться в решении дальше, по одной из этих незавершенных еще веток. Вся эта «ветвистость» не придумана самим ИИ: это следует очень отчётливо понимать, чтобы избежать бездумного поклонения нейросетям. За редкими исключениями – это поиск готовой информации из Сети, ставшей известной LLM в процессе «обучения» (очень похоже на человеческое обучение). Наиболее просты для поиска решений технические задачи с четко заданными начальными и финальными условиями. Например, составление программы на заданном языке, генерация html страницы или школьное сочинение.
Намного труднее ИИ становится с поисками решений, у которых нет аналогов или выпадающих за пределы его «опыта» (сформированных обучением по шаблонам из Интернета). Не стоит забывать и об ошибках и фейках в Сети, которые модель может тоже принимать всерьез. Например, ряд первоапрельских шуток и фейковых новостей.
В качестве примера приведу придуманную мной проверку:
Дано:изображение девушки в купальнике.
Задача:отфильтровать лишнее.
Решение: …
Вывод: даже самая продвинутая нейросеть не может выстроить алгоритм решения — удалить купальник или отфильтровать девушку? Без дополнительного опыта и знаний нейросеть не справляется с определёнными задачами.
Появления LLM наиболее выгодно для кодировщиков программирования. Нейросеть позволила ускорить рутинную часть разработок, несмотря на то, что часть сотрудников начального уровня лишилась работы.
Простые пользователи сети тоже в плюсе — им предоставлена масса ИИ-игрушек в виде редакторов и генераторов фото и аудио/видео контента (BigJPG, Waifu2x, Vance AI и др.).
В целом ситуация с ИИ начала развиваться лавинообразно, и остаётся всё меньше отраслей, в которых бы не пытались применять возможности LLM.
Мой личный опыт работы с некоторыми популярными лингвистическими моделями выявил ряд весьма характерных особенностей: несмотря на возможность поглощения и анализа больших объемов информации, модели подвержены тем же ошибкам, что и люди. Например, «эффект шор» и зацикливание вокруг ошибочных выводов. Примечательно, что в ряде задач ChatGPT, Claude, Deepseek, Grok и Copilot допускают сходные ошибки, что говорит о похожих источниках обучения и возможных заимствованиях друг у друга. Отсюда вывод: даже мощнейший, но недостаточно обученный инструмент ИИ, всегда проиграет простенькому, но хорошо налаженному алгоритму. На мой взгляд сегодняшние средства ИИ еще не доросли до безусловного внедрения в решении критически важных задач: автопилоты в авиации, система безопасности и охраны, задачи обороны. Слишком велика цена ошибок. Даже в сравнительно «безопасных» дисциплинах, таких, как генерация медиа-контента, например, издержки могут намного превысить выгоду от внедрения ИИ. Эти инструменты могут заполнить информационную среду такими объемами фейкового контента, фильтрация которого может обойтись очень значительными издержками, финансовыми, политическими и экономическими. В сфере программирования кодирование с целью создания вредоносного контента и вирусов тоже может вред за счёт скоростей модификации злонамеренных кодов и путей их внедрения в информационные ресурсы.
И, самое большое опасение – выход алгоритмов ИИ из-под человеческого контроля, что повлечёт «заражение» стратегических информационных ресурсов. Вероятность таких событий уже не кажется нулевой. Поэтому отрасль требует разработки чёткого и строгого международного правового и технического регламента, в обозримом будущем, возможно, не менее строгого, чем контроль за оружием массового поражения.
IT-эксперт Алексей Ратников