Алгоритмы рекомендаций влияют практически на все аспекты жизни онлайн-пользователя «Алгоритмы рекомендаций влияют практически на все аспекты жизни онлайн-пользователя»

Природа рекомендательных ИИ: частично воплощенный интеллект

Рекомендательные системы — это особый подкласс искусственного интеллекта, повсеместно внедренный в цифровую среду. Их можно считать частично воплощенным ИИ, поскольку они действуют не в вакууме, а встроены в динамическую среду взаимодействия с пользователями. Каждый лайк, клик, просмотр или пауза — это своего рода обратная связь, с помощью которой алгоритм «обучается» и подстраивает свои рекомендации. В отличие от классических ИИ-систем с фиксированным поведением, рекомендательные алгоритмы постоянно адаптируются на основе отклика аудитории. Например, система рекомендаций YouTube ежедневно обрабатывает миллиарды сигналов от зрителей и подбирает персонализированный список видео, на эту персонализацию приходится до 70% просмотров на платформе. Алгоритм анализирует историю активности пользователя (поиски, длительность просмотров, отметки «нравится/не нравится» и пр.) и с помощью методов машинного обучения из множества новых роликов отбирает те, которые с наибольшей вероятностью удержат внимание данного человека. По сути, такой ИИ ведет себя как агент, действующий в среде «контент – пользователь», и стремится максимизировать получаемую «награду».

Однако называть эти системы полноценным искусственным интеллектом в смысле общего разумного агента нельзя: у них нет целостной когнитивной архитектуры и самостоятельного целеполагания. Они не обладают пониманием смысла контента или долгосрочных целей, их узкий фокус задан разработчиками (например, увеличить время, проведенное на сайте, или повысить вероятность клика по рекламе, придать политическую и маркетинговую направленность). Внутри алгоритма нет этических ограничителей или внутренней мотивации, кроме тех метрик, что заложены в систему. Поэтому говорят, что рекомендательные системы — «узкоспециализированные» ИИ-модели, они великолепно оптимизируют одну задачу (персонализировать поток информации под интересы пользователя и согласно целям заказчиков), но не имеют интеллекта в человеческом понимании, не учатся полностью автономно за рамками поставленной задачи и не осознают последствий своих рекомендаций.

И все же, несмотря на ограниченность архитектуры, именно эти ограниченные алгоритмы стали, возможно, самым влиятельным воплощением ИИ в современном обществе. За счет своей массовости и коммерческой эффективности рекомендательные системы выступают основным вектором развития ИИ на практике. Компании – владельцы платформ вливают огромные ресурсы в совершенствование таких алгоритмов, потому что они доказали свою результативность: привлекают и удерживают аудиторию, а значит, приносят прибыль от рекламы или иные формы дивидендов. Как метко замечают исследователи, алгоритмы рекомендаций влияют практически на все аспекты жизни онлайн-пользователя, хотя научное сообщество долгое время недооценивало масштаб этого воздействия. Сегодня более чем когда-либо актуален вопрос о «выравнивании» целей ИИ с ценностями общества, ведь пока эти повсеместные алгоритмы оптимизируют показатели вовлеченности, не учитывая должным образом ни интересы отдельного человека, ни социальное благополучие.

Особенно вредно пассивное потребление — когда человек часами листает ленту, не вступая в осмысленное общение «Особенно вредно пассивное потребление — когда человек часами листает ленту, не вступая в осмысленное общение»

Психологическое влияние: внимание на крючке

Алгоритмы рекомендаций спроектированы так, чтобы захватывать и удерживать внимание пользователя как можно дольше. Для этого они эксплуатируют уязвимости человеческой психики — наши эмоции, когнитивные biais и нейрохимические механизмы вознаграждения. Дофаминовая петля зависимости, хорошо известная в нейробиологии, лежит в основе многих аддикций. Социальные сети и контент-платформы научились запускать эту петлю с помощью бесконечных лент новостей, уведомлений и других стимулов. Недаром смартфон сравнивают со шприцем, впрыскивающим дозу цифрового допинга: яркие цвета экрана, всплывающие уведомления и мгновенный доступ к удовольствиям — все это современный эквивалент наркотической иглы. Как отмечает профессор Стэнфордского университета Анна Лембке, приложения соцсетей буквально «одурманивают» социальное взаимодействие, вызывая выбросы дофамина, сопоставимые с действием сильнодействующих веществ. Наша эволюционно закрепленная потребность в одобрении, любопытство к новому и стремление к связи с другими людьми стали мишенью для искусственного интеллекта. Алгоритм, изучив предпочтения, выдает чуть-чуть новее, но в целом похожий контент, чтобы поддерживать постоянный интерес, и эта тактика оказывается чрезвычайно эффективной. Пользователь, сам того не замечая, легко скатывается в компульсивное потребление контента: рука тянется обновить ленту, глаза часами не отрываются от экрана.

Такая поведенческая зависимость от рекомендованных потоков контента нередко сравнивается с наркотической. Исследования показывают, что чрезмерное использование соцсетей активирует те же самые зоны мозгового вознаграждения, что игровая или химическая зависимость. Постепенно человеку требуется все больше стимулов (роликов, постов, лайков) для получения чувства удовлетворения — развивается толерантность, а без «дозы» контента наступает скука или тревога. Подростки особенно уязвимы: незрелая префронтальная кора головного мозга затрудняет контроль импульсов, и потому многие молодые пользователи практически живут в телефоне, испытывая ломку при попытке отложить гаджет. Недавний опрос показал, что 16% подростков сидят в TikTok «почти постоянно», это подтверждает, насколько силен затягивающий эффект алгоритма, оптимизированного для непрерывного просмотра.

Кроме формирования зависимости контентная диета, управляемая алгоритмами, сказывается и на эмоциональном состоянии. Поскольку система подбирает информацию, исходя из отклика, в приоритете часто оказывается эмоционально заряженный контент — шокирующий, возмутительный, трогательный или пугающий. Это привлекает внимание, но одновременно может держать пользователя в состоянии постоянного эмоционального напряжения. Например, лента новостей, где преобладают негативные или тревожные сообщения, способствует явлению «думскроллинга» — бесконтрольного листания плохих новостей, усиливающего тревогу и стресс. Встроенный субъективный опыт соцсетей — сравнение своей жизни с отретушированной витриной чужих успехов — тоже бьет по психике, снижая самооценку и способствуя депрессии. Эмпирические данные указывают, что активное пользование такими платформами коррелирует со снижением ощущения благополучия и удовлетворенности жизнью. Особенно вредно пассивное потребление — когда человек часами листает ленту, не вступая в осмысленное общение. В одном эксперименте участники через полчаса после сессии в Х (бывшем «Твиттере») демонстрировали ухудшение настроения и рост политического негодования.

Важно подчеркнуть, что эти психологические эффекты не побочный продукт, а напрямую связаны с алгоритмическими целями. Внутренние документы «Фейсбука»*, обнародованные журналистами, подтверждают, что разработчики осознавали, что наиболее конфликтогенный и возмущающий контент лучше всего «цепляет» аудиторию. «Наши алгоритмы эксплуатируют склонность человеческого мозга к разногласиям», — признавалась в презентации компания. Специальный анализ показал, что, если оставить алгоритм без ограничений, он будет все больше предлагать пользователям поляризующий, возмущающий контент, чтобы удержать их внимание. Так, 64% пользователей, вступивших в экстремистские группы в «Фейсбуке»*, присоединились к ним благодаря тому, что сама платформа им это порекомендовала. Эти факты шокируют: получается, ИИ-система, не имеющая злого умысла, своим слепым стремлением к кликам методично усиливает у людей негативные эмоции, от возмущения до агрессии, потому что именно они удерживают нас на сайте дольше всего. В конечном счете время, проведенное перед экраном, возрастает, но ценой тому становится ухудшение ментального здоровья: расшатанные нервы, рассеянное внимание, хроническая тревожность. Рекомендательный ИИ, словно искусный наркодилер, поддерживает постоянный уровень возбуждения, но не дает пищи для реального роста личности. Вместо чтения книг, обучения новым навыкам или глубокой концентрации на творчестве многие оказываются подсажены на бесконечный поток бесполезного, хоть и развлекательного контента. Это не позволяет развивать личность: человек все больше реагирует на стимулы, предлагаемые извне, и все меньше целенаправленно формирует собственные цели и смыслы.

Регулярное использование соцсетей приводит к росту гнева и поляризованности уже в короткой перспективе. Мы видим это и в масштабных событиях — от ожесточенных споров вокруг выборов до радикализации отдельных групп «Регулярное использование соцсетей приводит к росту гнева и поляризованности уже в короткой перспективе. Мы видим это и в масштабных событиях — от ожесточенных споров вокруг выборов до радикализации отдельных групп»

Социальное влияние: поляризация и фрагментация общества

Если рассматривать эффект рекомендательных алгоритмов на уровне общества, картина выглядит не менее тревожной. Массовое распространение персонализированных лент привело к тому, что каждый пользователь живет в своем информационном пузыре. Алгоритм подстраивается под наши уже существующие интересы и взгляды, предлагая схожий контент. В результате кругозор может незаметно сузиться. Люди реже сталкиваются с альтернативными мнениями или общим для всех набором фактов. Вместо этого аудитория распадается на сегменты, каждый из которых потребляет свою, отфильтрованную версию реальности. Так происходит фрагментация общественного сознания — исчезает единое информационное пространство, которое раньше формировалось общенациональными телеканалами или газетами.

Одно из самых обсуждаемых следствий этого процесса — усиление политической поляризации. В соцсетях заметна тенденция: контент крайнего толка (высказывания с выраженной идеологической окраской, теория заговора, провокационные заявления) получает больше откликов и шире распространяется. Алгоритмическое продвижение такого материала ведет к тому, что пользователи все глубже укореняются в своих позициях, питаясь потоком подтверждающих их убеждения новостей и мнений. Оппоненты же становятся все более чуждыми и непонятными, ведь лента выдает в основном эмоционально окрашенные карикатуры на позицию «другой стороны».

Социальные психологи ввели понятие аффективной поляризации — когда группы в обществе не просто расходятся во взглядах, но испытывают взаимную враждебность. Рекомендательные алгоритмы вносят свой вклад в этот феномен, ведь они поддерживают атмосферу конфликта. Данные подтверждают, что регулярное использование соцсетей приводит к росту гнева и поляризованности уже в короткой перспективе. Мы видим это и в масштабных событиях — от ожесточенных споров вокруг выборов до радикализации отдельных групп. Алгоритмический движок, нацеленный на максимальный «эмоциональный заряд» контента, невольно превращается в усилитель экстремальных голосов и катализатор социальных раздоров.

Кроме политической поляризации, алгоритмы поднимают на поверхность дезинформацию и скандалы, что также деструктивно сказывается на обществе. Сенсационные выдумки, теории заговора и откровенно ложные сведения часто оказываются более «кликабельными», чем скучные факты. Следовательно, система может раз за разом подсовывать фейки, если они генерируют трафик. Это подрывает общее основание реальности, и разные группы людей начинают верить в разные факты. Вспомним примеры: алгоритмы YouTube уличали в том, что они легко уводят пользователя от нейтрального контента к экстремальному: смотрит человек ролик о здоровом питании, а через несколько рекомендаций ему уже предлагают видео о плоской Земле или об «откровениях инсайдеров». Такая спираль радикализации происходит постепенно и незаметно для самого пользователя. В совокупности информационные пузыри и фейки ведут к утрате доверия в обществе: люди не сходятся во мнении даже в базовых вещах, каждая группа чувствует, что другая живет в иллюзиях. Общество раскалывается на фракции со своими медиареальностями, диалог между которыми крайне затруднен.

Не менее важно и то, что алгоритмы меняют характер социальных связей. Сама суть «социальности» претерпевает трансформацию, когда коммуникация опирается на социальные платформы. С одной стороны, нам доступно общение с тысячами людей, мы легко находим единомышленников по всему миру. С другой — возникает иллюзия взаимодействия, подмена качественного общения количественным. Алгоритм может подсунуть пост друга, который вызовет вашу эмоциональную реакцию, но при этом вы не заметите размещенный рядом пост о его реальных нуждах или радостях, ведь он показался системе менее «вовлекающим». В итоге эмпатия притупляется, мы реагируем на яркие инфоповоды вместо того, чтобы по-настоящему понимать переживания близких. Более того, платформы сознательно поощряют поверхностную социальную активность — лайки, репосты, комментарии, превращая общение в игру чисел. Это обесценивает живое взаимодействие, приводит к чувству одиночества, парадоксально возникающему при обилии виртуальных контактов.

Стоит упомянуть и феномен эмоционального заражения через соцсети: исследования «Фейсбука»* показали, что тональность новостной ленты влияет на настроение пользователей, причем они даже не осознают этого влияния. Алгоритмически отфильтрованный поток может незаметно задавать эмоциональный фон целым сообществам, например нагнетать тревожность или агрессию. Так, в одном внутреннем эксперименте «Фейсбука»*, когда пользователям искусственно показывали больше негативных постов, их собственные публикации тоже становились более мрачными и раздражительными. Это подчеркивает, что алгоритм действует как элемент социальной нервной системы, распространяя эмоциональные импульсы по сети связей. Если этот элемент настроен на усиление конфликтных сигналов (что и происходит ради кликов), то и коллективное эмоциональное состояние общества будет более напряженным, раздраженным, агрессивным.

Подытоживая сказанное, можно определить рекомендательные системы, оптимизированные на удержание внимания, как мощный дезинтегрирующий фактор. Они дробят аудиторию на сегменты, подпитывают экстремизм и недоверие, искажают общественный дискурс в сторону скандальности. Некоторые исследователи уже заговорили о том, что мы живем в эпоху «социального климатического кризиса» — столь нагреты страсти и велика взаимная неприязнь разных групп, во многом подогретая алгоритмическим распространением контента. И хотя социальные медиа дали право голоса многим и разнообразили информационное поле, их неуправляемые алгоритмы стали своеобразным паразитом на теле общественного сознания, питающимся раздором.

Человечество оказалось без «иммунитета» перед лицом нового типа паразита — цифрового. Ни на уровне отдельного мозга, ни на уровне социальной группы у нас нет встроенных барьеров, чтобы автоматически отсеивать такие влияния «Человечество оказалось без «иммунитета» перед лицом нового типа паразита — цифрового. Ни на уровне отдельного мозга, ни на уровне социальной группы у нас нет встроенных барьеров, чтобы автоматически отсеивать такие влияния»

Эволюционные последствия: цифровой паразит и «взлом» инстинктов

Человеческий мозг формировался в течение миллионов лет, однако эволюция не готовила нас к информационной среде, созданной современными алгоритмами. Наши когнитивные и эмоциональные механизмы — продукт жизни в совсем ином мире: небольших группах, ограниченной и медленно меняющейся информации, непосредственных социальных связей. Рекомендательные же ИИ-системы эксплуатируют эти древние механизмы, подвергая их беспрецедентным нагрузкам. Можно сказать, что они действуют как суперстимулы: искусственно усиленные раздражители, которые вызывают сверхсильную реакцию, по сравнению с естественными стимулами, на которые эта реакция изначально была рассчитана. Известный пример суперстимула — ярко раскрашенное муляжное яйцо, которое птица пытается высиживать охотнее, чем собственные бледные яйца. В контексте человека в роли такого суперраздражителя выступает, скажем, фастфуд (чрезмерно жирная и сладкая пища, к которой организм не готов и оттого переедает).

Алгоритмический контент — следующий уровень: он гипертрофирует наши социальные и познавательные триггеры. Любопытство к новому? Алгоритм обеспечит бесконечную ленту новостей со всего мира, обновляющуюся каждую секунду. Потребность в одобрении? Соцсети дадут мгновенные лайки от сотен людей. Стремление к принадлежности? Онлайн-сообщества и подписчики будут имитировать племя вокруг нас. Но все это искусственные симуляции, перегружающие каналы вознаграждения мозга. Как отмечают исследователи медиа, супернормальные стимулы в цифровой сфере превосходят по привлекательности все, с чем наши инстинкты сталкивались в естественных условиях, поэтому вызывают ненасытное потребление. Нескончаемая новизна, агрессивно бьющая по нашим сенсорам, приводит к тому, что мы тратим на нее максимум сил, будто мотылек, летящий на ослепительную лампу, и можем «сгореть», истощившись эмоционально и когнитивно.

В такой ситуации естественные защитные механизмы человека практически бессильны. Ни индивидуальный опыт, ни генетически закрепленные реакции не дают адекватной обороны от этих цифровых «атак на внимание». Более того, эволюция Homo sapiens происходила в условиях информационного дефицита — мы запрограммированы радоваться новизне и социальным стимулам, ведь в первобытной среде это повышало шансы на выживание и размножение. Теперь же мы живем во всеохватывающем избытке информации и наши адаптивные механизмы работают против нас: мозг беспрестанно ищет вознаграждение, а алгоритм щедро его поставляет, но «питательность» такого вознаграждения нулевая. Получается эволюционный капкан или, как образно говорят, «взлом» наших инстинктов. Цифровой паразит — рекомендательная система — поселяется у нас в голове, используя наше же внимание как ресурс. Мы, подобно муравью, зараженному паразитическим грибком Cordyceps, можем даже не осознавать, почему совершаем те или иные действия (например, смотрим третий час подряд предлагаемые видео), хотя в этот момент нашим поведением отчасти дирижирует внешний агент — алгоритм.

На индивидуальном уровне это ведет к когнитивным изменениям: сокращается способность к длительной концентрации (ведь привычка к постоянным переключениям и быстрому вознаграждению подрывает навык глубокого внимания), усиливается импульсивность (мозг привыкает к немедленной реакции на новые стимулы в ленте), может снижаться критическое мышление (контент, приходящий легко и массово, усваивается без достаточного анализа). На социальном уровне долгосрочные последствия могут быть еще глубже.

Если представить, что несколько поколений людей формируется под постоянным воздействием таких систем, возникает вопрос: не изменится ли сама человеческая природа? Впервые среда, которая влияет на отбор поведенческих стратегий, не биологическая, а информационная, причем управляемая искусственным агентом. Конечно, генетическая эволюция — медленный процесс и пока рано говорить о биологических изменениях. Но уже сейчас заметна культурная эволюция, направленная алгоритмами: ценности сдвигаются (например, культ мгновенной популярности, лайков), навыки трансформируются (цифровое клиповое мышление вместо линейного). Можно сказать, что рекомендательный ИИ действует как паразитарный меметический фактор, изменяющий культурный ландшафт в свою пользу. Это способствует распространению тех мемов (идей, трендов), которые выгодны для их целей, т. е. цепляют внимание, даже если эти мемы вредны для самих носителей (например, опасные челленджи, дезинформация, язык вражды).

Таким образом, человечество оказалось без «иммунитета» перед лицом нового типа паразита — цифрового. Ни на уровне отдельного мозга, ни на уровне социальной группы у нас нет встроенных барьеров, чтобы автоматически отсеивать такие влияния. Это вызывает серьезные опасения за будущее: если не выработать искусственные «антитела» — образовательные, технологические, нормативные, то паразитирующие алгоритмы могут ощутимо ослабить коллективный «организм» человечества. Неслучайно некоторые мыслители сравнивают происходящее с эпидемией: мы наблюдаем вспышку зависимости и информационных расстройств, от которых нет готовой вакцины. Требуются исследования и осмысление того, как эти системы влияют на нашу психологию, какие возможны социальные связи, когнитивные способности и даже эволюционные траектории вида, чтобы понять, как адаптироваться и защититься.

ИИ будет и автором, и куратором информационного потока, поступающего человеку «ИИ будет и автором, и куратором информационного потока, поступающего человеку»

Будущее: ИИ — производитель контента и усиление зависимости

Самый тревожный аспект рассматриваемой проблемы — то, что рекомендательные алгоритмы быстро эволюционируют сами, осваивая новые функции. Если сегодня они преимущественно отбирают из уже существующего контента, то в ближайшие годы ИИ все чаще будет сам создавать контент, который мы потребляем. Появление мощных генеративных моделей — от алгоритмов синтеза видео и изображений до больших языковых моделей, способных генерировать тексты, — означает, что технологически платформа может не ждать, пока пользовательский или профессиональный контент будет произведен, а сгенерировать подходящий материал на лету под интересы аудитории. Это грозит радикальным усилением всех описанных эффектов, поскольку замкнется полный цикл: ИИ будет и автором, и куратором информационного потока, поступающего человеку.

Представим, что алгоритм знает ваши предпочтения до мельчайших деталей — он собрал «профиль» из тысяч datapoints: какие шутки вам нравятся, какая внешность собеседника вызывает доверие, на какие фразы вы остро реагируете. Уже сейчас элементы этого видны, к примеру, TikTok славится своей беспрецедентно точной лентой, мгновенно подстраивающейся индивидуально благодаря продвинутому ИИ. Добавим к этому генеративные возможности: алгоритм сможет создавать персонализированных «суперинфлюенсеров» — виртуальных персонажей, идеально вам подходящих, с внешностью, голосом и мнениями, которые найдут эмоциональный отклик именно у вас. Исследователи сравнивают это с ситуацией, как если бы казино могло для каждого игрока сконструировать свой уникальный игровой автомат, использующий слабости данного человека. Алгоритмическое казино соцсетей и так заточено на максимальную аддиктивность, а с появлением ИИ-крупье, индивидуально обаятельного и неутомимого, удержать пользователя станет еще проще. Такой ИИ-спутник может выступать в роли друга, советчика, единомышленника, но его скрытая задача будет та же — продлить ваше пребывание на платформе, усилить вашу привязанность. Уже сейчас существуют прототипы: например, чат-боты вроде Replika, с которыми люди выстраивают эмоциональные отношения. Крупные соцсети тоже двигаются в этом направлении — так, Snapchat внедрил AI-чат для общения, а Meta** объявила о планах ввести ряд чат-ботов в «Фейсбуке»*, «Инстаграме»* и WhatsApp*. Предполагается, что эти виртуальные собеседники будут «развлекать и направлять» пользователей, еще сильнее привязывая их к сервису.

Когда генерация контента станет повсеместной, границы реальности могут окончательно размыться. Лента новостей может наполняться не событиями из внешнего мира, а симуляциями, рассчитанными на вашу реакцию. Например, вместо случайного видеоблогера вы увидите сгенерированного персонажа, который точно вас рассмешит или возмутит; вместо новостной статьи — текст, написанный ИИ под вашу идеологию. Пользователь окажется в комфортном, но полностью сконструированном информационном коконе. Это, безусловно, усилит и зависимость (ведь контент станет еще более «попадающим в точку» интересов), и манипулятивное влияние (алгоритм сможет направлять мнения и настроения еще тоньше, не ограничиваясь наличием готовых материалов). В пределе можно вообразить, что человеку будет трудно отличить, где кончается влияние алгоритма и начинается его собственное мнение, настолько плотной станет эта связь.

Некоторые публицисты уже бьют тревогу, называя подобный сценарий появлением «контура ИИ-сознания». В этой системе искусственный интеллект не просто инструмент, а как бы часть расширенного сознания общества, хотя и действует паразитически. Музыковед Тед Джоя, анализируя современные медиа, отмечает, что крупнейшие цифровые платформы уже сейчас ведут себя как паразиты, питающиеся творчеством и вниманием пользователей, и их мечта — когда человеческий «хозяин» уже будет не нужен, потому что весь контент будет производиться и потребляться внутри их экосистемы. «Паразит может пережить смерть хозяина» — эта пугающая метафора указывает на то, что корпорации готовы заменить независимое творческое начало на полностью контролируемое ИИ-производство, лишь бы сохранить свое господство. Перенося эту метафору на социальную сферу, можно заключить, что, если реальные социальные связи и независимые СМИ «умрут» от недостатка внимания, потому что алгоритм перетянул его на себя, платформа не исчезнет — она будет снабжать нас синтетическим социальным опытом и информацией, поддерживая иллюзию нормальности.

Такой замкнутый цикл «алгоритм – контент – алгоритм» может рассматриваться как своего рода автономная система, внутри которой человек выполняет роль скорее объекта воздействия, чем субъекта. ИИ сам создает стимулы и сам измеряет реакцию, непрерывно оптимизируя эту петлю. Со стороны это напоминает работу нервной системы, только вместо нейронов — пользователи, а вместо собственного разума — внешняя машина. Если этот цикл управляется исключительно жаждой нашей вовлеченности, он становится паразитарным контуром в социальной нервной системе: подобно вирусу, который распространяется по нервным путям и управляет поведением, алгоритм охватывает информационные каналы общества и направляет их под свои задачи.

Перспектива выглядит мрачно: усиление зависимости до уровня полной подчиненности внимания, еще большая поляризация (можно будет генерировать бесконечный поток провокаций для каждой группы), полный разрыв с реальностью (сгенерированные фейки будут неотличимы от правды). Особое беспокойство вызывает влияние на детей и молодежь — именно они станут первыми, чей мир с юных лет будет наполовину состоять из ИИ-сгенерированных «друзей», учителей, развлечений. Психика, формирующаяся в такой среде, может приобрести черты, которые мы пока не в состоянии предсказать: возможно, человек будущего будет с рождения адаптирован к сосуществованию с ИИ, но будет ли он достаточно автономен от него? Не окажемся ли мы в положении «человека на ниточках, с цифровым паразитом в голове», как предостерегают некоторые футурологи?

Частично воплощенный ИИ принес пользу (персонализированный контент, удобство, новые формы связи), но вместе с тем породили эффекты, сравнимые с действием наркотика или паразита, против которых у нас нет врожденного иммунитета «Частично воплощенный ИИ принес пользу (персонализированный контент, удобство, новые формы связи), но вместе с тем породил эффекты, сравнимые с действием наркотика или паразита, против которых у нас нет врожденного иммунитета»

Заключение: вызовы и пути противодействия

Рекомендательные алгоритмы бросают сложный вызов человечеству — вызов, требующий комплексного ответа. Как видно, частично воплощенный ИИ принес пользу (персонализированный контент, удобство, новые формы связи), но вместе с тем породил эффекты, сравнимые с действием наркотика или паразита, против которых у нас нет врожденного иммунитета. Что же делать, чтобы обуздать цифрового паразита и вернуть технологии на службу человеку? Ниже обозначим несколько направлений решения.

Повышение осведомленности и цифровая гигиена. Первый рубеж защиты — сам пользователь. Важно распространять знания о том, как работают алгоритмы и какие приемы они используют, чтобы привлечь внимание. Медиаграмотность должна включать «иммунитет к алгоритмам»: понимание, что вызывает у нас ту или иную реакцию при просмотре ленты, умение критически осмыслять рекомендованный контент. Практика цифровой гигиены — ограничение времени в социальных сетях, сознательное отключение навязчивых уведомлений, регулярные «детоксы», которые помогут хотя бы частично снять зависимость. Индивидуально люди могут выбирать альтернативы, например, пользоваться приложениями с хронологической лентой или без алгоритмической подборки, по возможности отдавать предпочтение целенаправленному поиску информации, а не бесцельному скроллу. Конечно, сделать это нелегко, как и побороть любую зависимость, но понимание проблемы уже первый шаг.

Технологические контрмеры. Алгоритмы не только могут быть злонамеренными. Они же могут стать и частью решения. Один из путей — разработка «этических рекомендательных систем», где метрики успеха отличаются от голых кликов. Например, могли бы внедряться многокритериальные алгоритмы, учитывающие не только персональные предпочтения, но и полезность контента, разнообразие источников, долгосрочное удовлетворение пользователя. Интересная идея предложена исследователями — триединая система рекомендаций, где в отборе участвуют сигналы от индивида, общества и разработчиков одновременно. Это означает, что, помимо личных интересов, алгоритм учитывает общественную значимость контента и соблюдает определенные ограничители, заложенные создателями во избежание вреда. Также бурно развивается направление AI-тьюторов и ассистентов, стоящих на стороне пользователя. Представим персонального ИИ-агента, который знает ваши истинные цели (например, выучить язык, оставаться в хорошем настроении, быть продуктивнее) и помогает фильтровать поток информации так, чтобы он вам соответствовал. Такой агент мог бы блокировать заведомо отвлекающий или вредоносный контент — своего рода цифровой иммунитет против паразита, встроенный в ваше устройство.

Регуляция и ответственность платформ. Не обойтись и без внешних мер со стороны государства, общества, самих технологических компаний. Возможны законодательные инициативы, ограничивающие самые токсичные практики. Например, запрет безграничной прокрутки (infinite scroll) для несовершеннолетних, ограничение таргетинга по чувствительным данным, требования по раскрытию работы алгоритмов. Уже обсуждаются законы о прозрачности, чтобы компании обязаны были информировать пользователей о том, почему им показан тот или иной пост (что за алгоритм и на основании каких данных принято решение). Другой подход — антитрастовые меры против гигантов, контролирующих сразу и платформу, и контент, и рекламу. Снижение монополии могло бы ослабить гонку за любыми методами удержания аудитории. Кроме кнута, возможен и пряник: стимулирование (например, грантами или сертификатами) разработчиков на создание «социально ответственных» алгоритмов, минимизирующих вред. Общество также может влиять через давление на репутацию. В последние годы все больше обсуждается тема «технологической этики», и компании, проигнорировавшие нанесение вреда своими продуктами, рискуют потерять доверие пользователей. Хорошим шагом было бы внедрение метрик благополучия пользователя в отчетность компаний: измерение не только времени пользования приложением, но и удовлетворенности, состояния психического здоровья аудитории (пока это звучит утопично, но тренд к ориентации на well-being уже появляется в дискурсе).

Культурная адаптация. История показывает, что человечество учится сосуществовать с новыми «паразитами», вырабатывает коллективный иммунитет или находит баланс. Возможно, со временем сформируются новые социальные нормы, смягчающие влияние алгоритмов. Например, выработка этикета отказа: ценность «не быть постоянно онлайн», мода на «цифровой минимализм». Уже появляется противодействие культуре вечного скроллинга — движение slow media, возвращение интереса к длинным текстам, приватным группам вместо открытых лент. Аналогично в образовании могут сделать упор на те навыки, которые компенсируют урон от клипового мышления: критическое мышление, глубокое чтение, эмпатическое общение офлайн. Человеческий мозг пластичен, и молодое поколение, выросшее в эпоху «цифры», возможно, приобретет определенные «антитела», т. е. научится быстрее распознавать манипуляции, жонглировать вниманием сознательнее. Культурные продукты, такие как литература, кино, уже рефлексируют проблему, достаточно вспомнить документальный фильм «Социальная дилемма» или эпизоды сериалов, где показано общество под контролем рейтингов). Такое осмысление важно, чтобы проблема перешла из разряда незаметных в зону явного обсуждения.

Рекомендательные ИИ-алгоритмы стали двояким символом прогресса: с одной стороны это венец технологий персонализации, с другой — источник новых угроз для психики общества «Рекомендательные ИИ-алгоритмы стали двояким символом прогресса: с одной стороны, это венец технологий персонализации, с другой — источник новых угроз для психики общества»

Подводя итог, можно сказать, что рекомендательные ИИ-алгоритмы стали двояким символом прогресса: с одной стороны, это венец технологий персонализации, с другой — источник новых угроз для психики общества. Они подобны джинну, выпущенному из бутылки: обратно его загнать уже нельзя, но можно направить и ограничить. Главная задача — вернуть человеческий суверенитет над вниманием. Алгоритмы не обязаны исчезнуть, вероятнее всего, они и дальше будут частью нашего информационного ландшафта, но они должны эволюционировать в сторону поддержки наших подлинных интересов, а не подрыва их. Для этого потребуются совместные усилия инженеров, психологов, социологов, законодателей и всех нас как пользователей. Если рассматривать нынешнюю ситуацию как своего рода эволюционное испытание, то человеческий вид, обладающий сознанием и разумом, способен выработать ответ — создать новую, симбиозную форму взаимодействия с ИИ, где паразитизм сменится сотрудничеством. В противном случае нас ждет малопривлекательный сценарий: общество, разделенное и зависимое, утонувшее в океане сгенерированных стимулов. Осознание проблемы — первый шаг к ее решению. Значит, пока мы еще способны анализировать влияние технологий и принимать волевые решения, не все потеряно. Паразита можно обезвредить, превратив его из скрытого кукловода в прозрачный инструмент, служащий человеку и коллективному благу, а не только кликам и рекламным бюджетам.

Нурутдинов Айрат Рафкатович — кандидат технических наук (computer science).