Введение
В современных условиях цифровой экономики проблема понимания механизмов потребительского выбора приобретает особую актуальность. На протяжении длительного времени экономическая теория опиралась на модель Homo Economicus [1], предполагающую рационального агента, способного к полному анализу информации и максимизации личной выгоды. Однако многочисленные эмпирические исследования показали, что в реальности индивиды редко действуют строго рационально: их поведение ограничивается когнитивными возможностями, временными рамками, психологическими барьерами и социальными нормами [2]. Именно эта совокупность факторов получила название «ограниченная рациональность» [1] и стала фундаментальным понятием, позволяющим по-новому взглянуть на природу экономического выбора.
Дополнительное измерение данной проблеме придаёт стремительное развитие технологий искусственного интеллекта, активно внедряющихся в сферы электронной коммерции, финансовых услуг и сервисных платформ [7]. Алгоритмы машинного обучения и системы обработки больших данных формируют персонализированные рекомендации, управляют динамическим ценообразованием, предлагают автоматизированные инвестиционные решения [8]. С одной стороны, такие инструменты сокращают когнитивную нагрузку на человека, упрощают поиск информации и ускоряют процесс выбора [4]. С другой – они могут усиливать иррациональные черты поведения, эксплуатировать когнитивные искажения и незаметно манипулировать предпочтениями потребителей [11].
Таким образом, исследование взаимодействия ограниченной рациональности и технологий искусственного интеллекта выходит за рамки теоретической дискуссии и становится прикладной задачей, значимой как для бизнеса, так и для государства. С одной стороны, компании заинтересованы в повышении эффективности и точности воздействия на клиентов, с другой – возрастает необходимость защиты потребителей от манипуляций и снижения прозрачности алгоритмов. В статье рассматривается феномен потребительского выбора в условиях цифровизации экономики, когда взаимодействие ограниченной рациональности индивидов и алгоритмов искусственного интеллекта формирует новые закономерности поведения на рынке. На основе анализа теоретических подходов Г. Саймона, Д. Канемана, А. Тверски и современных исследований поведенческой экономики выявлено, что когнитивные искажения и эвристические стратегии принимают новую форму под воздействием цифровых технологий. Показано, что рекомендательные системы, динамическое ценообразование и персонализированные интерфейсы одновременно снижают когнитивную нагрузку и усиливают манипулятивные риски. Обоснована необходимость формирования «цифрового иммунитета» у потребителей, внедрения принципов этики алгоритмов в бизнес-практику и разработки нормативных рамок для обеспечения прозрачности и справедливости цифровых рынков.
Цель исследования состоит в теоретическом обосновании и выявлении новых закономерностей потребительского выбора, возникающих на пересечении концепции ограниченной рациональности и алгоритмов искусственного интеллекта.
Для достижения поставленной цели в работе были сформулированы следующие задачи:
Проанализировать теоретические концепции ограниченной рациональности и поведенческой экономики применительно к потребительскому выбору.
Выявить ключевые механизмы и особенности влияния алгоритмов ИИ (рекомендательных систем, динамического ценообразования) на когнитивные искажения и эвристики потребителей в цифровой среде.
Обосновать необходимость формирования «цифрового иммунитета» как защитного механизма потребителей от манипулятивных практик ИИ.
Сформулировать практические и регулятивные предложения для гармонизации интересов потребителей, бизнеса и государства в условиях цифровизации.
Объектом исследования выступает процесс потребительского выбора в современной цифровой экономике.
Предметом исследования является взаимодействие ограниченной рациональности экономических агентов и алгоритмов искусственного интеллекта как факторов, формирующих новые модели рыночного поведения.
Материалы и методы исследования
В процессе исследования применялись следующие методы:
Теоретический анализ и синтез ключевых положений поведенческой экономики (Г. Саймон, Д. Канеман).
Метод компаративного анализа для сопоставления классической экономической теории и поведенческого подхода в условиях цифровизации.
Системно-структурный подход для выявления двойственного характера влияния ИИ на принятие потребительских решений.
Методы логического и причинно-следственного анализа при разработке концептуализации «цифрового иммунитета» и формулировании практических рекомендаций.
Следует сразу подчеркнуть, что работа носит теоретико-концептуальный характер, поскольку её основная цель не сбор и анализ новых статистических данных (что свойственно эмпирическим исследованиям), а интерпретация, систематизация и развитие существующих теоретических подходов.
Исследование сосредоточено на объединении двух крупных, но до конца не интегрированных концептуальных полей: ограниченная рациональность (Г. Саймон, Д. Канеман), что является основой для понимания неидеального потребительского поведения. И влияние ИИ-алгоритмов, подход, формулирующий новый технологический контекст, который требует переосмысления старых моделей. Работа не измеряет, насколько рекомендация изменила выбор (эмпирика), а обосновывает, как этот механизм встраивается в структуру когнитивных искажений.
Результаты исследования и их обсуждение
Заключительные выводы включают предложения по этике, регулированию и нормам (требования к прозрачности, запрет dark patterns). Формулирование таких предложений требует теоретического осмысления потенциальных рисков и желаемых институциональных изменений, что является задачей теоретической экономики и политической экономии, а не прикладного эмпирического анализа.
Автор вносит в научный оборот и обосновывает необходимость таких понятий, как двойственный характер взаимодействия ограниченной рациональности и ИИ. Эти элементы являются аналитическими конструктами (моделями и понятиями), созданными на основе логического и теоретического анализа, а не результатами полевых или лабораторных экспериментов.
Таким образом, работа вносит вклад в теорию путем реинтерпретации известных моделей в новом цифровом контексте и формулирования новых концептуальных рамок для дальнейших эмпирических исследований.
Теоретические основы ограниченной рациональности
Традиционная экономическая теория долгое время исходила из предположения о рациональности индивида, который способен к полному анализу информации и выбору оптимальной альтернативы [6]. Эта концепция легла в основу модели Homo Economicus [1], представляющей человека как «совершенного вычислителя», обладающего безграничными когнитивными ресурсами и временем для принятия решений.
Однако уже в середине XX века стало очевидно, что данная модель слабо соответствует реальности повседневного экономического поведения. Одним из первых исследователей, подвергших критике эту идеализированную конструкцию, стал Герберт Саймон [1], предложивший термин «ограниченная рациональность». Он подчеркнул, что возможности человека по обработке информации и поиску альтернатив ограничены когнитивными барьерами, эмоциональными реакциями и дефицитом времени, что вынуждает индивидов принимать «удовлетворяющие» решения (satisficing), а не стремиться к абсолютной оптимизации.
Дальнейшее развитие идей Саймона нашло отражение в исследованиях поведенческой экономики. Даниэль Канеман и Амос Тверски [2; 3] продемонстрировали, что решения людей систематически отклоняются от предсказаний неоклассической модели и подвержены устойчивым когнитивным искажениям. Среди наиболее значимых искажений выделяются:
• эффект якорения, когда исходная информация задаёт рамки последующих оценок;
• эффект подтверждения, выражающийся в стремлении искать данные, согласующиеся с уже существующими убеждениями;
• эффект стадного поведения, обусловливающий следование за выбором большинства.
Эти искажения делают процесс принятия решений не случайным, а предсказуемо отклоняющимся от рациональной логики.
Ричард Талер в своих работах по поведенческой экономике [4] показал, что в реальной жизни потребители часто действуют под влиянием эмоций, привычек и внешних «подталкиваний», а не исходя из строгого расчёта.
Социальные и культурные факторы, давление окружения, ограниченность ресурсов и недостаток информации формируют специфическую среду, в которой решения оказываются скорее адаптивными, чем оптимальными [13]. При этом использование эвристик и упрощённых схем мышления нельзя рассматривать исключительно как «ошибку». Герд Гигеренцер [19] указывал, что быстрые и экономные эвристики являются важным эволюционным механизмом, позволяющим принимать приемлемые решения в условиях неопределённости и избыточности информации.
Таким образом, теория ограниченной рациональности даёт более реалистичное представление о поведении индивидов на рынке. Она демонстрирует, что человек не является безупречным рациональным агентом, а скорее адаптивным субъектом, действующим в условиях неполной информации и когнитивных ограничений [10]. Этот подход становится ключевой теоретической основой для анализа того, как современные цифровые технологии и искусственный интеллект взаимодействуют с психологическими барьерами и эвристиками, изменяя характер потребительского выбора [18].
Ограниченная рациональность в потребительском выборе
Проблема ограниченной рациональности наиболее наглядно проявляется в сфере потребительского выбора. Классическая модель Homo Economicus предполагает, что покупатель тщательно анализирует весь спектр доступных товаров и услуг, сопоставляет цены и характеристики, а затем выбирает оптимальный вариант [1]. Однако эмпирические исследования убедительно показывают, что реальное поведение потребителей существенно отличается от этих предположений [12].
Люди чаще опираются на эвристики, привычки, эмоциональные реакции и социальные ориентиры, нежели на полный рациональный анализ [13]. Одним из ключевых факторов выступает ограниченность времени. В условиях перегруженности информацией и множества доступных вариантов у потребителя просто нет возможности проводить детальный сравнительный анализ. В таких случаях он прибегает к упрощённым схемам – доверяет известному бренду, выбирает первый подходящий вариант или следует рекомендациям друзей [11].
Неполнота информации также играет решающую роль: доступные сведения о товаре или услуге зачастую оказываются фрагментарными, а затраты на их уточнение превышают потенциальную выгоду [9].
Не менее значимы когнитивные искажения, описанные Канеманом и Тверски. Эффект якорения проявляется, например, в том, что первоначально названная цена формирует «точку отсчёта», вокруг которой выстраиваются все последующие оценки. Эффект подтверждения приводит к выбору данных, совпадающих с уже существующими представлениями, что мешает объективному сопоставлению альтернатив. Стадное поведение выражается в склонности ориентироваться на решения большинства – будь то рейтинги в онлайн-магазинах или отзывы в социальных сетях [13].
Эмоции также оказывают прямое воздействие на процесс выбора. Атмосфера в торговом зале, дизайн упаковки или срочная акция «только сегодня» способны вызвать у потребителя чувство «упущенной выгоды» и подтолкнуть к импульсивной покупке. Влияние социальных факторов становится особенно значимым в эпоху цифровых коммуникаций: лайки, комментарии и рекомендации в социальных сетях часто оказываются более весомыми для выбора, чем объективные характеристики товара.
Таким образом, ограниченная рациональность в потребительском поведении проявляется как результат взаимодействия временных и информационных ограничений, когнитивных искажений, эмоций и социальных норм [10]. Вместо тщательной оптимизации потребители стремятся к «достаточно хорошему» выбору, который удовлетворяет их текущие потребности и снижает когнитивную нагрузку. Именно это обстоятельство делает сферу потребительского выбора особенно уязвимой к воздействию цифровых технологий и алгоритмов искусственного интеллекта [16].
Влияние технологий искусственного интеллекта на процесс выбора
Стремительное развитие технологий искусственного интеллекта стало одним из ключевых факторов трансформации механизмов потребительского выбора [16]. Алгоритмы машинного обучения, системы обработки больших данных и интеллектуальные интерфейсы всё глубже проникают в сферы электронной коммерции, финансовых услуг и цифровых платформ, создавая новые возможности для персонализации и ускорения принятия решений [7].
Одним из наиболее заметных направлений применения искусственного интеллекта являются рекомендательные системы. Они анализируют историю поисковых запросов, покупки и даже поведенческие метрики, чтобы предложить индивидуализированные варианты товаров или услуг [12]. С одной стороны, это снижает когнитивную нагрузку, экономит время и избавляет человека от необходимости самостоятельно обрабатывать большие объёмы информации [4]. С другой стороны, такие алгоритмы способны незаметно формировать предпочтения, ограничивая разнообразие выбора и создавая эффект «информационного пузыря» [13].
Другим значимым проявлением является динамическое ценообразование. Искусственный интеллект позволяет компаниям гибко изменять стоимость товаров и услуг в зависимости от множества параметров: геолокации пользователя, истории покупок, времени суток или уровня спроса [17]. Это открывает возможности для повышения эффективности продаж, но одновременно порождает ситуацию неопределённости для потребителя.
Широкое распространение получила также поведенческая сегментация, которая позволяет делить аудиторию не только по социально-демографическим признакам, но и по психологическим характеристикам: склонности к риску, эмоциональной устойчивости, стилю принятия решений [18]. В результате маркетинговые предложения становятся более точными, но и более манипулятивными.
Наконец, искусственный интеллект всё чаще определяет саму среду, в которой принимается решение. Цифровые интерфейсы онлайн-платформ проектируются таким образом, чтобы направлять пользователя к желаемому результату: определённая расстановка кнопок, визуальные сигналы и уведомления становятся своеобразными «подталкиваниями».
Таким образом, влияние технологий искусственного интеллекта на потребительский выбор проявляется в двух противоречивых формах: с одной стороны, они повышают удобство, скорость и релевантность решений, с другой – усиливают когнитивные искажения, снижают прозрачность рынка и увеличивают риск манипуляций [8; 17].
Практические кейсы применения ИИ и взаимодействие с ограниченной рациональностью
Практические примеры позволяют наглядно продемонстрировать, каким образом технологии искусственного интеллекта взаимодействуют с ограниченной рациональностью потребителей. Наиболее очевидно это проявляется в сферах электронной коммерции, туристических сервисов и финансовых услуг [12; 16].
В электронной коммерции рекомендательные системы стали неотъемлемым элементом платформ, таких как Amazon или крупные онлайн-маркетплейсы [13]. Они предлагают пользователю товары на основе его предыдущих покупок и поисковых запросов, тем самым экономя время и снижая когнитивную нагрузку. Однако побочным эффектом является «сужение горизонта выбора»: потребитель всё чаще сталкивается лишь с теми вариантами, которые система считает для него наиболее релевантными. В результате формируется информационный «пузырь», ограничивающий возможность сравнительного анализа [18].
В туристических сервисах (Booking, Expedia и др.) особое распространение получило динамическое ценообразование. Стоимость авиабилетов или гостиничных номеров изменяется в режиме реального времени в зависимости от спроса, истории поисков или даже устройства, с которого осуществляется запрос [17]. Такие алгоритмы создают иллюзию ограниченного предложения («осталось два номера по такой цене»), что провоцирует у потребителей эффект срочности и подталкивает к импульсивному решению.
Особое значение приобретают Robo-Advisors в сфере финансовых услуг. Эти алгоритмические консультанты помогают формировать инвестиционный портфель, основываясь на кратком опросе о целях и уровне риска [16]. Для неопытных инвесторов подобные сервисы снижают барьер входа на финансовый рынок и экономят время, которое потребовалось бы для самостоятельного анализа. Однако доверие к алгоритму часто приводит к переоценке его возможностей: клиент недооценивает факторы, не учитываемые системой, и принимает решения, не всегда соответствующие его индивидуальным интересам [11]. Более того, совмещение алгоритмических рекомендаций с мотивацией живых консультантов может создавать скрытый конфликт интересов.
Эти примеры показывают, что ограниченная рациональность потребителей подвергается дополнительному давлению со стороны интеллектуальных систем. С одной стороны, технологии позволяют принимать решения быстрее и с меньшими усилиями [4]. С другой – формируют новые когнитивные ловушки, подталкивающие индивида к действиям в интересах компаний [8; 18].
Плюсы и минусы взаимодействия «ИИ – ограниченная рациональность»
Анализ взаимодействия технологий искусственного интеллекта и ограниченной рациональности демонстрирует двойственный характер их влияния на потребительское поведение [16]. С одной стороны, интеллектуальные алгоритмы обладают значительным потенциалом для упрощения процесса выбора и повышения его эффективности [12].
К числу основных преимуществ можно отнести персонализацию и экономию времени. Рекомендательные системы позволяют быстро находить товары и услуги, соответствующие индивидуальным предпочтениям, тем самым сокращая когнитивные затраты на обработку информации [13]. Персонализированные предложения в ряде случаев повышают удовлетворённость потребителей и способствуют росту доверия к платформам [18]. Ещё одним важным плюсом является снижение барьеров для участия в сложных сферах, например в инвестициях, где Robo-Advisors делают доступными финансовые инструменты для широкой аудитории [16].
Однако положительные эффекты сопровождаются серьёзными рисками. Прежде всего речь идёт о манипуляции предпочтениями. Алгоритмы способны эксплуатировать когнитивные искажения, подталкивая потребителей к импульсивным или невыгодным решениям [2; 3]. В условиях непрозрачности цифровых интерфейсов пользователю трудно осознать, каким образом формируются рекомендации или цены, что снижает уровень автономности выбора [17]. Дополнительным минусом является ограниченность доступа к информации: эффект «информационного пузыря» ведёт к тому, что потребитель сталкивается лишь с частью возможных альтернатив, формируемых системой.
Существенную проблему представляет также утечка и использование персональных данных. Алгоритмы искусственного интеллекта требуют обработки больших массивов информации, что повышает риски нарушения конфиденциальности и неправомерного использования данных. В совокупности это приводит к росту зависимости от цифровых платформ, снижению прозрачности рынка и усилению неравенства в доступе к выгодным предложениям [8].
Таким образом, взаимодействие искусственного интеллекта и ограниченной рациональности имеет как положительные, так и отрицательные стороны. Эффективность и удобство решений нередко достигаются ценой снижения автономности потребителя и увеличения его подверженности манипуляциям [11; 18]. Баланс между этими полюсами требует выработки новых этических норм и регуляторных механизмов [17].
Этические и регулятивные аспекты
Рост влияния искусственного интеллекта на потребительский выбор ставит перед исследователями и практиками задачу разработки этических и правовых рамок, которые позволили бы гармонизировать интересы бизнеса, государства и общества [17]. Манипулятивный потенциал алгоритмов, эксплуатация когнитивных искажений и непрозрачность принципов работы цифровых систем поднимают вопросы справедливости, автономии личности и защиты прав потребителей.
Этический аспект проблемы связан, прежде всего, с балансом между эффективностью и свободой выбора. С одной стороны, персонализация и автоматизация упрощают жизнь потребителям, повышая удобство и снижая когнитивные издержки [4]. С другой стороны, они могут ограничивать спектр альтернатив, создавать иллюзию «оптимального выбора» и подталкивать человека к решениям, выгодным компании, но не всегда соответствующим его интересам [13]. Возникает риск подмены самостоятельного выбора алгоритмически управляемыми подсказками [11].
Регулятивные вызовы связаны с необходимостью обеспечить прозрачность и подотчётность алгоритмов. В условиях «чёрных ящиков» машинного обучения потребителю практически невозможно понять, почему ему предлагается именно тот или иной вариант [16]. Это снижает доверие к цифровым системам и затрудняет контроль за возможными злоупотреблениями [8]. Дополнительную сложность создаёт транснациональный характер цифровых платформ: данные о пользователях обрабатываются в разных юрисдикциях, что требует международной координации в сфере регулирования.
Важной частью дискуссии является проблема защиты персональных данных. Алгоритмы искусственного интеллекта основываются на анализе больших массивов информации о поведении, предпочтениях и социальных связях пользователей [15]. Утечки или недобросовестное использование этих данных могут приводить к дискриминации, росту социального неравенства и подрыву доверия к цифровым сервисам [9]. В этой связи особое значение приобретают стандарты ответственного использования данных и законодательные инициативы, направленные на защиту приватности [18].
На международном уровне уже предпринимаются шаги в сторону формирования этических ориентиров для развития ИИ. Европейская комиссия, Всемирный экономический форум и ряд национальных регуляторов разрабатывают принципы «доверенного ИИ», основанные на транспарентности, справедливости, подотчётности и уважении к правам человека. Однако успешная реализация этих принципов требует не только нормативного регулирования, но и активного включения образовательных программ, направленных на развитие цифровой грамотности и критического отношения к рекомендациям алгоритмов [12].
Таким образом, этические и регулятивные аспекты использования искусственного интеллекта в контексте ограниченной рациональности выходят на первый план. Без выработки комплексных подходов к регулированию и повышения осведомлённости потребителей невозможно обеспечить устойчивое развитие цифровой экономики и гармонизацию интересов бизнеса и общества [17].
Заключение
Исследование показало, что концепция ограниченной рациональности остаётся ключевым инструментом для объяснения реального потребительского поведения в условиях цифровой экономики. В отличие от идеализированной модели Homo Economicus, индивид действует в условиях неполной информации, ограниченности времени и когнитивных ресурсов, прибегая к эвристикам, эмоциональным реакциям и социальным ориентирам. Эта специфика делает потребителей особенно уязвимыми перед алгоритмическими системами, которые всё активнее внедряются в повседневные экономические практики.
Развитие искусственного интеллекта вносит в процесс выбора двойственность. С одной стороны, интеллектуальные алгоритмы способствуют персонализации, ускоряют принятие решений, снижают когнитивную нагрузку и открывают доступ к ранее сложным сферам – например, к инвестициям через Robo-Advisors. С другой стороны, они усиливают поведенческие искажения, эксплуатируют эмоциональные уязвимости и ограничивают спектр доступных альтернатив. Рекомендательные системы, динамическое ценообразование и алгоритмически управляемые интерфейсы не только упрощают выбор, но и формируют новые когнитивные ловушки, где автономность потребителя постепенно снижается.
Эта противоречивость ставит перед обществом ряд вызовов, в ответ на которые в работе обоснованы следующие ключевые положения:
1. Концептуализация «цифрового иммунитета»: для потребителей приоритетной задачей становится развитие «цифрового иммунитета» и критического отношения к алгоритмическим подсказкам, как механизма защиты от манипуляций.
2. Необходимость внедрения этики алгоритмов в бизнес-практику: для бизнеса – внедрение принципов этики алгоритмов, ориентированных на прозрачность, честный дизайн интерфейсов и долгосрочное доверие клиентов.
3. Формирование комплексных регуляторных рамок: для государства и международных институтов – формирование регуляторных рамок, способных обеспечить баланс между инновациями и защитой прав личности.
В частности, для бизнеса ключевым направлением становится внедрение стандартов алгоритмической прозрачности, включающих раскрытие принципов работы рекомендательных систем, критериев ранжирования товаров и логики формирования динамических цен. Целесообразно вводить механизмы объяснимых рекомендаций (explainable AI), позволяющих потребителю понять, какие параметры повлияли на предложенный выбор. Компании должны минимизировать использование манипулятивных интерфейсных решений («dark patterns»), таких как искусственное создание дефицита, скрытые подписки, визуальная маскировка кнопок отказа или навязчивые уведомления, подталкивающие к импульсивному выбору. Рекомендуется внедрение «честного дизайна» (fair design), ориентированного на поддержку автономных и осознанных решений. Бизнес также должен проводить регулярный аудит алгоритмов для выявления предвзятости, дискриминационных эффектов и непреднамеренных когнитивных ловушек, формирующихся в пользовательских траекториях.
Для регуляторов ключевой задачей является создание нормативных рамок, обеспечивающих баланс между инновациями и защитой потребителей. Требуется стандартизировать требования к прозрачности и подотчётности алгоритмических систем, включая обязательное информирование пользователей о факте персонализации, критериях рекомендаций и возможных рисках принятия решений на их основе. Регуляторам целесообразно разработать перечень запрещённых манипулятивных практик и тёмных паттернов, аналогичный существующим ограничениям в сфере рекламы и защиты конкуренции. Важным направлением становится внедрение обязательного независимого аудита алгоритмов крупных цифровых платформ, а также создание механизмов быстрого реагирования на выявленные нарушения в сфере манипулятивных цифровых практик. Дополнительно государству следует стимулировать развитие программ цифровой грамотности и формирования «цифрового иммунитета», позволяющих потребителям осознанно оценивать риски алгоритмических воздействий и принимать более автономные решения.
С научной точки зрения очевидна необходимость разработки новых моделей потребительского поведения, которые учитывают взаимодействие ограниченной рациональности и интеллектуальных технологий. Междисциплинарные исследования на стыке экономики, психологии, когнитивных наук и анализа больших данных могут дать более полное понимание того, как алгоритмы трансформируют процесс принятия решений. Особый интерес представляют вопросы долгосрочного воздействия алгоритмической персонализации на конкуренцию, социальное равенство и устойчивость экономических систем. В перспективе именно синергия теоретических подходов к ограниченной рациональности и практического анализа применения искусственного интеллекта позволит создать новую парадигму исследования потребительского поведения. Эта парадигма должна учитывать не только слабости, но и адаптивные возможности человека, а также потенциал интеллектуальных алгоритмов как инструмента не манипуляции, а содействия осознанному выбору. Таким образом, ключевая задача на будущее – выработать механизмы, которые обеспечат гармонизацию интересов бизнеса, общества и государства в условиях цифровизации. Только при условии прозрачности, ответственности и образовательного сопровождения использование технологий искусственного интеллекта может превратиться в фактор устойчивого развития, способный укрепить доверие, повысить эффективность и расширить возможности для всех участников экономических процессов
Конфликт интересов
Библиографическая ссылка
Щербаков А.П. ПОТРЕБИТЕЛЬСКИЙ ВЫБОР В УСЛОВИЯХ ЦИФРОВИЗАЦИИ: ВЗАИМОДЕЙСТВИЕ ОГРАНИЧЕННОЙ РАЦИОНАЛЬНОСТИ И АЛГОРИТМОВ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА // Вестник Алтайской академии экономики и права. 2025. № 12-1. С. 142-150;URL: https://vaael.ru/ru/article/view?id=4423 (дата обращения: 28.12.2025).
DOI: https://doi.org/10.17513/vaael.4423

