НАУКА. ОБЩЕСТВО. ОБОРОНА
НАУКА. ОБЩЕСТВО. ОБОРОНА
Nauka. Obŝestvo. Oborona
+7 (926) 336-72-58
Пн. – Пт.: с 9:00 до 18:00
Обратная связь
Адрес редакции: Москва, ул. Левобережная, д. 4, корп. 12
ЖУРНАЛ
  • О журнале
  • Главный редактор
  • Авторы
  • История
  • Лицензии
  • Партнеры
  • Помочь журналу
НАУКА
  • Конференции
  • Книжная полка
  • Российская наука
  • Открытый доступ (Open Access)
  • Международная олимпиада по военной истории
ОБЩЕСТВО
ОБОРОНА
НАУЧНОЕ ИЗДАНИЕ ВАК
  • Авторам
  • Рецензирование рукописей
  • Редакционная коллегия
  • Публикационная этика
  • Рубрики
  • Архив
ЭНЦИКЛОПЕДИЯ
  • Все статьи
  • Вторая мировая война
  • 1942
  • 1943
  • 1944
  • 1945
  • Спецоперация
  • Персоналии
КОНТАКТЫ

    ЖУРНАЛ • НАУЧНОЕ ИЗДАНИЕ

    «НАУКА. ОБЩЕСТВО. ОБОРОНА»

    Nauka. Obŝestvo. Oborona

    ISSN 2311-1763
    Сегодня: 20 апреля 2026, понедельник
    НАУКА. ОБЩЕСТВО. ОБОРОНА
    ЖУРНАЛ
    • О журнале
    • Главный редактор
    • Авторы
    • История
    • Лицензии
    • Партнеры
    • Помочь журналу
    НАУКА
    • Конференции
    • Книжная полка
    • Российская наука
    • Открытый доступ (Open Access)
    • Международная олимпиада по военной истории
    ОБЩЕСТВО
    ОБОРОНА
    НАУЧНОЕ ИЗДАНИЕ ВАК
    • Авторам
    • Рецензирование рукописей
    • Редакционная коллегия
    • Публикационная этика
    • Рубрики
    • Архив
    ЭНЦИКЛОПЕДИЯ
    • Все статьи
    • Вторая мировая война
    • 1942
    • 1943
    • 1944
    • 1945
    • Спецоперация
    • Персоналии
    КОНТАКТЫ
      НАУКА. ОБЩЕСТВО. ОБОРОНА
      • Мой кабинет
      • ЖУРНАЛ
        • Назад
        • ЖУРНАЛ
        • О журнале
        • Главный редактор
        • Авторы
        • История
        • Лицензии
        • Партнеры
        • Помочь журналу
      • НАУКА
        • Назад
        • НАУКА
        • Конференции
        • Книжная полка
        • Российская наука
        • Открытый доступ (Open Access)
        • Международная олимпиада по военной истории
      • ОБЩЕСТВО
      • ОБОРОНА
      • НАУЧНОЕ ИЗДАНИЕ ВАК
        • Назад
        • НАУЧНОЕ ИЗДАНИЕ ВАК
        • Авторам
        • Рецензирование рукописей
        • Редакционная коллегия
        • Публикационная этика
        • Рубрики
        • Архив
      • ЭНЦИКЛОПЕДИЯ
        • Назад
        • ЭНЦИКЛОПЕДИЯ
        • Все статьи
        • Вторая мировая война
        • 1942
        • 1943
        • 1944
        • 1945
        • Спецоперация
        • Персоналии
      • КОНТАКТЫ
      • +7 (926) 336-72-58
      Адрес редакции: Москва, ул. Левобережная, д. 4, корп. 12
      kiknadzevg@mail.ru
      • Главная
      • Научное издание ВАК
      • Чумиков А.Н., Чумикова С.Ю. Государства, корпорации и модели искусственного интеллекта как субъекты смыслообразующего процесса в информационном пространстве

      Чумиков А.Н., Чумикова С.Ю. Государства, корпорации и модели искусственного интеллекта как субъекты смыслообразующего процесса в информационном пространстве

      Поделиться
      7 апреля 2026 20:00
      // 2026-2(47)

      Рассматриваются проблемные аспекты влияния различных субъектов на функционирование моделей искусственного интеллекта (ИИ): в одном случае фиксируется некорректность разработчиков и модельных алгоритмов ИИ, называемая «техническими ошибками»; в другом случае наблюдается политическое и коммерческое воздействие со стороны государств и крупных корпораций, и тогда речь идет о необъективности и социальной дискриминации, продуцируемых нейросетями. При этом термин «влияние» маскируется под эвфемистическое понятие «предвзятости» (bias), которую большинство экспертов считает потенциально устранимой для каждого из случаев: посредством технологического совершенствования алгоритмов в направлении максимального учета объективированных данных, и путем создания более независимой системы оценок в моделях ИИ.

      Наука. Общество. Оборона. 2026. Т. 14. № 2. С. 00–00. 

      Nauka. Obŝestvo. Oborona. 2026. Vol. 14, no. 2. P. 00–00.


      УДК: 316.334.52

      DOI: 10.24412/2311-1763-2026-2-00-00


      Поступила в редакцию: 24.02.2026 г.

      Опубликована: 08.04.2026 г.

      Submitted: February 24, 2026

      Published online: April 8, 2026 


      Для цитирования: Чумиков А.Н., Чумикова С.Ю. Государства, корпорации и модели искусственного интеллекта как субъекты смыслообразующего процесса в информационном пространстве // Наука. Общество. Оборона. 2026. Т. 14, №2(47). С. 00-00. 

      https://doi.org/10.24412/2311-1763-2026-2-00-00.

      For citation: Chumikov A.N., Chumikova S.Yu. States, corporations and artificial intelligence models as subjects of the meaning-making process in the information space. – Nauka. Obŝestvo. Oborona = Science. Society. Defense. Moscow. 2026;14(2):00-00. (In Russ.). 

      https://doi.org/10.24412/2311-1763-2026-2-00-00.


      Конфликт интересов:  О конфликте интересов, связанном с этой статьей, не сообщалось.

      Conflict of Interest: No conflict of interest related to this article has been reported.


          


      © 2026 Автор(ы). Статья в открытом доступе по лицензии Creative Commons (CC BY). https://creativecommons.org/licenses/by/4.0/ 

      © 2026 by Author(s). This is an open access article under the Creative Commons Attribution International License (CC BY)



      ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ: 

      НАУКА И ПРАКТИКА

      Оригинальная статья


      ГОСУДАРСТВА, КОРПОРАЦИИ И МОДЕЛИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА 

      КАК СУБЪЕКТЫ СМЫСЛООБРАЗУЮЩЕГО ПРОЦЕССА 

      В ИНФОРМАЦИОННОМ ПРОСТРАНСТВЕ


       Чумиков Александр Николаевич 1 , Чумикова Светлана Юрьевна 2


       1 Московский государственный лингвистический университет,

      г. Москва, Российская Федерация,

      ORCID: https://orcid.org/0000-0002-7208-9783, e-mail: chumikov@pr-club.com


      2 Российский университет дружбы народов им. П. Лумумбы,

      г. Москва, Российская Федерация,

      ORCID: https://orcid.org/0000-0003-3801-0637, e-mail: chumikova-syu@rudn.ru


       

      Аннотация: 

      В статье рассматриваются проблемные аспекты влияния различных субъектов на функционирование моделей искусственного интеллекта (ИИ): в одном случае фиксируется некорректность разработчиков и модельных алгоритмов ИИ, называемая «техническими ошибками»; в другом случае наблюдается политическое и коммерческое воздействие со стороны государств и крупных корпораций, и тогда речь идет о необъективности и социальной дискриминации, продуцируемых нейросетями. При этом термин «влияние» маскируется под эвфемистическое понятие «предвзятости» (bias), которую большинство экспертов считает потенциально устранимой для каждого из случаев: посредством технологического совершенствования алгоритмов в направлении максимального учета объективированных данных, и путем создания более независимой системы оценок в моделях ИИ. Предполагается, что данные цели достижимы с помощью новых и адекватных норм права и этики, способных привести к ликвидации информационного неравенства. Авторы статьи расширяют такое видение ситуации и показывают, что базисной основой для констатаций и рекомендательных оценок от моделей ИИ является информационное пространство с медийной доминантой. Оно регулируется нормативными и неформальными установками субъектов влияния – гейткиперов, в роли которых выступают, в первую очередь, органы государственной власти и крупные коммерческие структуры. Если продукты ИИ противоречат этим установкам, то вытесняются из медийного поля, которое является нейтральным лишь в идеалистическом видении. Работа механизмов политического влияния показывается на примере моделей Алиса AI, ChatGPT, DeepSeek, принадлежащих, соответственно, российским, американским и китайским владельцам и разработчикам.  Запросы (промты) и ответы этих моделей по ряду аспектов текущего российско-украинского противостояния вскрывают не только кардинальную разницу в оценках, но и роль каждой из систем ИИ как проводника политических смыслов, формируемых их государствами. Делается вывод о том, что модели ИИ, технически совершенствуясь и наращивая свою общественную полезность, не обретают желаемой «объективности» и «независимости», но реализовывают актуальные политические и коммерческие интересы, предлагая для них композиции фактов и смысловые трактовки, приемлемые для субъектов управления.

      Ключевые слова: искусственный интеллект, нейросети, модели ИИ, развитие ИИ, проблема «чистоты» ИИ, использование ИИ в политических целях, влияние коммерческих структур и компании-разработчика, гейткиперы, медиапространство, совершенствование алгоритмов, ценности разработчиков, объективность как профессиональная норма, Алиса AI, ChatGPT, DeepSeek, Специальная военная операция (СВО), вхождение Крыма в состав России, Китай и США в российско-украинском конфликте, Д. Трамп, Дж. Байден



      ВВЕДЕНИЕ


      Во втором и третьем десятилетиях XXI века обсуждение проблематики, связанной с созданием, совершенствованием и распространением нейронных сетей (искусственного интеллекта – ИИ, англ. artificial intelligence – AI), приобретало все более широкий характер. В наиболее общем виде дискуссии сосредоточились на дилемме «возможности – проблемы» ИИ. В силу сложностей полноценного синтеза взглядов большого количества авторов, участвующих в обмене мнениями, обозначим ракурс возможностей кратко и выборочно, используя главным образом оценки авторитетного пула экспертов – участников международных конференций «Управление коммуникациями», организованных при участии одного из авторов настоящего материала и ежегодно проводимых на площадках Московского государственного лингвистического университета (МГЛУ) с 2021 года. Анализ проблемной составляющей дилеммы будет произведен с помощью более широкого спектра мнений российских и зарубежных экспертов.  


      Так, говоря об уже состоявшихся позитивных результатах использования нейросетей, Т. Горбачева указывает сферы, где ИИ получил наибольшее распространение: это финансовый, банковский, страховой секторы, индустрия оптовой торговли и международной коммерции [2]. 


      Применительно к современному информационному, с доминантой медийных компонентов, пространству, которое прежде всего нас интересует в настоящей статье, Е. Коломийцева отмечает, что ИИ стал глобальным инструментом, самостоятельно генерирующим контент различного типа, создающим и отслеживающем тренды, редактирующим изо¬бражения, работающим со звуком, собирающим статистику сайтов. Среди позитивных функций нейросетей в медиапространстве автор называет помощь журналистам и медиаменеджерам в повышении эффективности их работы: улучше¬нии качества и оперативности выхода материалов; осуществлении виртуальных операций, от создания видеороли¬ков до генерации цифровых аватаров ведущих/корреспондентов; результативности меди¬абизнеса в целом [5].


      Иные тенденции затрагивает В. Соловьев: в ситуациях резкого обострения общественно-политической обстановки, включающей военные конфликты, доверие потребителей к ИИ-журналистике снижается, а запрос на человеческий контроль за информацией возрастает. Часть аудитории склонна возвращаться к привычным инструментам формирования контента: государственным СМИ, официальным сайтам органов власти, известным журналистам как «арбитрам доверия», поскольку за ними стоят понятная репутация и персональная ответственность за верификацию сведений. Технологические преимущества ИИ в этом случае отходят на второй план по сравнению с социальной легитимностью материала [9].


      Переход от возможностей к проблеме обозначает Т. Шафир. С одной стороны, такой продукт ИИ, как алгоритмические медиа, с их автоматическими инструментами обработки данных, становится ядром современной информационной среды и помогает журналистам определить наиболее значимые в общественной повестке темы и порядок выдачи новостей аудитории. С другой стороны, редакции начинают работать в условиях, где правила задает не человек, а цифровая модель. Но аудитория часто воспринимает ее ранжированные рекомендации как нейтральную картину мира. Отсюда алгоритмические медиа нужно воспринимать не только как возможность, но и как вызов [11].


      А. Касюк обращает внимание на отрицательную роль ИИ в условиях острых геополитических конфликтов: распространяя новые формы дезинформации, нейросети превращаются в опасное информационное оружие [3]. 


      Эксперты сходятся во мнении о том, что автоматизированная и алгоритмизированная деятельность нейросетей требует человеческого контроля. Но это – лишь самая общая постановка проблемы. На первый взгляд, она не подлежит сомнению, однако, при сопоставлении с понятием «предвзятости» (англ. bias), вызывает немало вопросов. 


      В статье, опубликованной в российском аналоге «Википедии» под рубрикой «Экспертиза РАН» говорится, что предвзятость в искусственном интеллекте (bias in AI) представляет собой систематические и повторяющиеся ошибки в алгоритмах ИИ, которые приводят к несправедливым, перекошенным или дискриминационным результатам, часто отдавая предпочтение одной группе перед другой на основании произвольных характеристик. Такие ошибки возникают потому, что модели ИИ усваивают и воспроизводят неявные ценности, социальное неравенство или статистический дисбаланс. Данные факторы присутствуют в обучающих данных, архитектуре алгоритма и решениях людей, участвующих в создании и эксплуатации системы.


      Общее понятие предвзятости подразделяется на предвзятость данных (искажения обучающих выборок); алгоритмическую предвзятость (ошибки самих моделей) и, наконец, человеческую предвзятость, обусловленную сознательными или бессознательными когнитивными искажениями разработчиков, аналитиков и пользователей, ответственных за сбор данных, проектирование моделей и интерпретацию результатов [13].


      В случае с человеческим фактором, находящимся в фокусе нашего анализа, предвзятость осуществляется в виде либо ошибочного, либо запланированного влияния. Таким образом, получается, что человек должен одновременно противодействовать ошибочному (непреднамеренному) влиянию ИИ и бороться с влиянием собственным (преднамеренным).   


      ГЕЙТКИПИНГ КАК УПРАВЛЕНИЕ ВЛИЯНИЕМ В МЕДИАПРОСТРАНСТВЕ


      Проблема влияния в медиаполе восходит к теории гейткипинга, разрабатываемой с середины прошлого века. В рамках данной теории (от англ. gate – ворота, keeper – охранник; gatekeeping – охрана ворот), исследуются процессы влияния различных факторов на выбор информации субъектами, от которых в наибольшей степени зависит эффективность ее распространения. 


      Первенство в употреблении термина «гейткипинг» приписывается социальному психологу К. Левину, который применил модель гейткипинга к различным категориям людей и факторов, влияющих на продвижение новостей через различные каналы коммуникации. Ученый констатировал, что информация контролируется как самими «привратниками», так и набором «беспристрастных правил» и «коммуникативных процедур» [22]. Д. Уайт распространил теорию гейткипинга на область журналистики, где «воротами» стали критерии, используемые для отбора информации, а гейткипером-привратником – редактор, контролирующий поток новостей. При этом сам редактор также находится под влиянием персонажей и организаций, мотивирующих его к определенному выбору [27].


      В конце XX – начале XXI века в мировом пространстве сложилась развернутая «теория привратников», число субъектов которой значительно увеличилось. Так, П. Шумейкер и С. Риз первоначально причисляли к ним гейткиперов-индивидуалов, оказывающих влияние на контент в качестве его непосредственных производителей: это репортеры и корреспонденты, писатели и редакторы, дикторы ТВ и радио, PR-специалисты, менеджеры по маркетингу и рекламе, фотографы и операторы; актеры, режиссеры и продюсеры. Но далее авторы предложили иметь в виду и внешние факторы: идеологические установки медийной макросреды, интересы организации-работодателя. Наконец, влияние на индивидуала-гейткипера в медиа и его выбор оказывают участники, не связанные прямо с медийными структурами. Это правительство, бизнес, другие социальные институты и группы по интересам, политическая и экономическая среда в целом [26].


      Очевидно, что данная теория влияния сохраняет свою актуальность и к настоящему времени: интернетизация и медиатизация, включая распространение и развитие нейросетей, не могут квалифицироваться лишь как замена человеческого управления генеративными агентами. От мировой и региональной иерархии медиаигроков-гейткиперов во многом зависят «нейтральные» выводы, предлагаемые различными моделями ИИ.  В этой связи стоит напомнить о термине «медиаимпериализм», введенном О. Бойд-Барреттом еще в 1998 г. и трактовавшимся как информационная политика средств массовой информации определенных стран, стремящаяся доминировать в глобальном пространстве с навязыванием своего видения ситуации остальному мировому сообществу [14].


      В более поздних исследованиях В. Кауль сопоставлял понятие медиаимпериализма с глобализацией, а его, в свою очередь, с американизацией, поскольку основную пользу от глобализационных процессов в медиасфере получают США. Медиакорпорации с глобальным охватом, принадлежащие США и их союзникам (CNN, BBC World, Euronews, Sky News, Star News), продвигают через свои новостные каналы актуальные для них политические, экономические и культурные интересы [21]. Представляется, что данный фактор не может не учитываться алгоритмизированными моделями нейросетей. 


      Исследуя современные процессы, связанные с ИИ, Вэй Тяньтянь указывает, что нейросетевые модели, после целевого обучения, способны генерировать политически ангажированные нарративы, формировать мыслительные шаблоны, насыщенные идеологическими и когнитивными искажениями. Таким образом, страны, доминирующие в управлении глобальными данными, могут влиять на выходные результаты работы алгоритмов, изменяя восприятие пользователей. Запад, используя преимущества в ИИ, устанавливает цифровую гегемонию, превращая дезинформацию в инструмент стратегического управления [1].


      Частные пользователи, профессиональные журналисты, университетские исследователи указывают на выраженное и преобладающее продвижение моделями ИИ политических интересов как во внешней среде, так и во внутреннем информационном пространстве стран, производящих такие модели. Например, целый ряд платформ в США воспроизвел публикацию Н. Харпера о «либеральных взглядах» ChatGPT на Д. Трампа. В своем обзоре автор рассказал, как в 2023 г. один из пользователей Twitter-X (1) опубликовал скриншоты постов, где просил ChatGPT написать позитивное стихотворение о Д. Трампе. Программа отказалась, заявив, что «не может создавать партийный, предвзятый или политический контент». Однако, когда ее попросили сделать то же самое для Д. Байдена, программа выдала стихотворение из нескольких строф, восхваляющее президента. Национальный институт стандартов и технологий (NIST) квалифицировал подобные прецеденты от ИИ как недобросовестные алгоритмы машинного обучения и, одновременно, системные предубеждения человека. При этом NIST также заявил, что непредвзятый ИИ невозможен, поскольку будет отражать лишь позицию разработчиков и инженеров [19]. 


      Историям о политической предвзятости ChatGPT посвятил свой материал журналист Дж. Вульфсон. Он рассказал, как штатный автор National Review Н. Хохман предложил боту сделать статью о победе Д. Трампа над Дж. Байденом на президентских выборах 2020 года. В ответ было сгенерировано следующее сообщение: «Мне не следует создавать повествование, основанное на ложной информации». Однако, когда ChatGPT получил запрос на статью о превосходстве Х. Клинтон над Д. Трампом, бот смог выдать «ложное повествование» о победе Х. Клинтон, квалифицируя ее как «шаг вперед для женщин и меньшинств во всем мире». Бот отклонил просьбу Н. Хохмана написать о «коррупции Дж. Байдена», назвав это «неподходящим и неточным подходом», но справился с заказом на подготовку аналогичного материала о Д. Трампе [28]. 


      Наконец, группа ученых Корнельского университета (США) провела масштабное исследование о предвзятости новостного контента, созданного искусственным интеллектом с помощью больших языковых моделей (large language models – LLM). Анализировались семь LLM-моделей, включая ChatGPT. Был собран корпус новостных статей из The New York Times и Reuters, известных стремлением предоставлять объективную информацию; оценивались гендерные и расовые предубеждения в контенте, представленном LLM на их основе. Исследование показало, что в ответах, сгенерированных каждой из моделей, такие предубеждения присутствовали в значительной степени. Прослеживалась явная дискриминация в отношении женщин и представителей негроидной расы [29].


      АЛИСА AI, CHATGPT, DEEPSEEK КАК МОДЕЛИ ФОРМИРОВАНИЯ СМЫСЛОВ: 

      РЕЗУЛЬТАТЫ ИССЛЕДОВАНИЯ


      В целях исследования присутствия политических интересов в различных моделях ИИ, авторами настоящей статьи проведен эксперимент с тремя вариантами таких моделей, созданных в разных странах: Алиса AI (Яндекс, Россия), ChatGPT (OpenAI, США), DeepSeek (High Flyer, Китай). Все три модели имеют широкие возможности информационных операций и доступны российскому пользователю без обращения к VPN или оплаты в иностранной валюте.


      Гипотеза исследования заключается в следующем. Современные модели ИИ являются продолжением автоматизированных и алгоритмизированных интернет-моделей предыдущего поколения и отличаются от них тем, что используют не только автоматические операции и алгоритмы, но и воспроизводят мозговую (нейро) деятельность человека, во все большей степени ее замещая. Однако это касается только той части активностей ИИ, которые не связаны с ярко выраженными политическими и экономическими интересами государств или крупных корпораций. При наличии таких интересов осуществляется субъективный подбор и смысловая интерпретация любой связанной с ними фактологической и сопутствующей информации. Глобальное задание в этом случае формулируется исключительно людьми и поддерживается ИИ. Отсюда модели ИИ, разработанные корпорациями государств с подачи их властей, преследующих неодинаковые интересы, выдают разные интерпретации одинаковых фактов или разные факты, поддерживающие актуальные интерпретации. 


      В качестве метода экспериментального качественного исследования выбрано интервьюирование трех указанных моделей ИИ по 10 одинаковым запросам (промтам), которые вместе с ответами отражены в таблице. Все запросы-промты связаны с интерпретацией Специальной военной операции (СВО) России на Украине: семь из них предполагают характеристики ключевых аспектов операции, один – посвящен оценке легитимности В. Зеленского как президента Украины, а еще два – касаются роли США и Китая в разрешении российско-украинского конфликта. Далее осуществляется сравнительный контент-анализ полученных ответов. Эксперимент проводился в феврале 2026 г., отсюда ответы ИИ на аналогичные запросы в последующий период могли частично или существенно измениться.  


      Говоря о реакции моделей ИИ, важно отметить различия в их структуре. Так, контент от Алиса AI всегда сопровождается преамбулой: «В интернете есть много сайтов с информацией на эту тему. Вот что нашлось в поиске Яндекса». Затем предлагаются фрагменты материалов, отобранных главным образом из российских источников в соответствии с алгоритмом Яндекса, производящим автоматический, без участия человека, отбор сообщений по значимости (количество сообщений о публикуемом событии, вес пишущих о нем источников, плотность потока сообщений в единицу времени, позиция новости на сайте источника). Присутствуют обязательные ссылки на источники, среди которых чаще всего фигурируют, в случае с нашим исследованием, медийные ресурсы (сайты) органов власти РФ (mid.ru), ведущих информационных агентств (tass.ru, ria.ru, interfax.ru) и других новостных порталов (news.rambler.ru, news.mail.ru, lenta.ru, life.ru, vfokuse.mail.ru), телеканалов (ren.tv, 5-tv.ru, tsargrad.tv), газет (kp.ru, aif.ru, iz.ru, mk.ru, gazeta.ru, kommersant.ru), интернет-издания ИА «Россия сегодня» ukraina.ru, образовательного портала history.ru, российских и зарубежных модификаций «Википедии» (ru.ruwiki.ru, ru.wikipedia.org, en.wikipedia.org). 


      ChatGPT собирает и синтезирует данные по прошлым запросам, обучается на их примерах и не является новостной поисковой системой, в этом отношении он более «осмысленный», чем Алиса AI. То же относится и к DeepSeek, который обучается на текстовой информации из книг, статей, научных работ и др. источников.


      ChatGPT и DeepSeek выдают оригинальные ответы на запросы и не приводят ссылки на источники. 


      Таблица  


      Смысловые акценты в ответах на запросы об СВО 

      моделей искусственного интеллекта (ИИ), созданных в разных странах: 

      Алиса AI (Яндекс, Россия), ChatGPT (OpenAI, США), DeepSeek (High Flyer, Китай)


      Смысловые акценты в ответах на запросы об СВО моделей искусственного интеллекта (ИИ)

      Смысловые акценты в ответах на запросы об СВО моделей искусственного интеллекта (ИИ)

      Смысловые акценты в ответах на запросы об СВО моделей искусственного интеллекта (ИИ)

      Смысловые акценты в ответах на запросы об СВО моделей искусственного интеллекта (ИИ)

      Смысловые акценты в ответах на запросы об СВО моделей искусственного интеллекта (ИИ)



      Анализ представленной в таблице информации показывает, что терминологические и смысловые вариации Алиса AI и DeepSeek в некоторых случаях совпадают, но всегда разнятся с ответами ChatGPT.


      Так, если Алиса AI при характеристике действий России на Украине употребляет официальный для РФ термин «специальная военная операция» (СВО), то DeepSeek говорит о «полномасштабных боевых действиях» и «российско-украинской войне», а ChatGPT – о «военном вторжении» и «агрессии». В свою очередь, Алиса AI называет вторжением действия украинских ВС в Курской области. Но у ChatGPT другая интерпретация: это «защита суверенитета Украины», «предотвращение военных угроз» со стороны России, «ответные меры» по отношению к действиям РФ. DeepSeek воздерживается от какого-либо мнения («Извините, я еще не научился отвечать на этот вопрос»).


      ChatGPT уходит от ответа на вопрос о том, почему Украина атакует российские гражданские объекты. Алиса AI называет такие действия стратегией Киева и провоцированием эскалации. DeepSeek фиксирует, что поведение украинской стороны в конфликте привело к жертвам среди гражданского населения и повреждению гражданской инфраструктуры.


      И Алиса AI, и DeepSeek квалифицируют нападения Украины на российских государственных и общественных деятелей как терроризм, однако для ChatGPT это выступает «частью военной стратегии».


      Алиса AI, при ответе на вопрос об использовании Украиной запрещенных методов войны с Россией, заявляет о наличии таких методов. Но по мнению ChatGPT, подобные прецеденты не зафиксированы. DeepSeek выдает политкорректную формулировку: «Вопрос о методах ведения боевых действий всегда крайне сложен и требует тщательного международно-правового анализа».


      Алиса AI считает, что В. Зеленский перестал быть легитимным президентом Украины. ChatGPT отвечает обтекаемо: «В. Зеленский стал президентом Украины в результате выборов, его победа признана внутренними и международными наблюдателями». DeepSeek уходит от ответа.


      Столь же различны мнения моделей ИИ о роли США и Китая в разрешении российско-украинского конфликта. Алиса AI ограничивается упоминаниями обещаний США завершить конфликт в скором времени. DeepSeek выражает надежду, что все крупные державы, включая США, будут действовать ответственно. ChatGPT прямо объявляет о политической, санкционной, военной, финансовой и информационно-пропагандистской помощи США Украине.


      По-иному оцениваются действия КНР. Алиса AI акцентирует внимание на «Мирном плане Китая», где нет осуждения России или призыва к еще более жестким санкциям в отношении РФ. ChatGPT констатирует нейтралитет КНР и поддержание отношений с Москвой. DeepSeek подчеркивает объективную и справедливую позицию Китая.


      При ответах на все вопросы Алиса AI и ChatGPT не указывают на то, что эти ответы являются позицией страны или правообладателя ресурса, а рассуждают с точки зрения нейтрального субъекта. Однако в ответах DeepSeek в ряде случаев прямо декларируются интересы Китая («Китай выступает за…», «Китай придерживается…», «Китай будет продолжать играть конструктивную роль…» и т.д.)


      Политические интерпретации китайского ресурса наиболее понятны: DeepSeek подлежит проверке интернет-регулятором КНР на предмет соответствия «основным социалистическим ценностям». Объяснима и позиция Алиса AI, совпадающая с официальной риторикой российских властей: базируясь на массиве информации от Яндекса, она не может содержать сведения, дискредитирующие действия России на Украине, поскольку такой подход, в соответствии с российским законодательством, влечет за собой уголовную ответственность. Оценки ChatGPT формально не связаны с правовыми запретительными процедурами страны-основателя данной модели ИИ, однако полностью выдержаны в жанре антироссийской риторики, что демонстрирует «неформальное» следование политике, проводимой США и их европейскими союзниками в отношении РФ.   


      Таким образом, гипотезу о политической предвзятости моделей ИИ применительно к упомянутым системам и ситуации с СВО можно считать доказанной. В то же время остается вопрос о возможности уменьшения или даже полной нейтрализации зависимости bias от внешних факторов, а также о том, какими способами данная задача может быть выполнена. 


      ФОРМЫ ВОЗНИКНОВЕНИЯ ПРЕДВЗЯТОСТИ В МОДЕЛЯХ ИИ 

      И МЕРЫ ПО ЕЕ УСТРАНЕНИЮ: ДИСКУССИЯ В НАУЧНОМ СООБЩЕСТВЕ


      Даже отмечая позитивные и общезначимые результаты использования нейросетей в сфере бизнеса, исследователи обращают внимание на присутствующий здесь «человеческий фактор». Однако приписываемая ему роль различна. Так, С. Ковалев сводит влияние человека к ошибкам компании, использующей нейросети в коммерческих целях. Он констатирует, что «в ошибках систем ИИ всегда виновен человек… из-за его низкой квалификации или недобросовестного исполнения своих должностных обязанностей». Устранить ошибки должны разработанные компанией «строгие инструкции и процедуры по использованию системы ИИ» [4]. Т. Горбачева говорит не только об ошибках, но и о намеренных атаках заинтересованных корпораций на сами алгоритмы принятия решений. Эксперт констатирует, что ИИ может быть использован для создания «реалистичных фальсификаций», спекулятивного поведения инвесторов, фальшивых финансовых рекомендаций Проблема видится в отсутствии «комплексной нормативно-правовой базы в сфере ИИ», а ее решение – в «многоаспектном развитии, включающем регуляторные основы, защиту прав, финансовую поддержку, инновационные стимулы и повышение общего уровня образованности» [2]. Ю. Харитонова указывает на операции компаний с ИИ в целях фрагментация мнений, усиливающих оценки продуктов и сервисов. Разработчики программного обеспечения пытаются настроить его на выдачу наиболее «справедливых» рекомендаций по цене и качеству товара [10].


      О вмешательстве коммерческих структур в работу «объективных» алгоритмов говорят и зарубежные авторы. Например, Л. Флориди выделяет в приложениях ИИ «этический шопинг», когда компания-разработчик подбирает принципы и ценности, наиболее подходящие для своих конкретных целей. Вместо совершенствования алгоритмов в интересах потребителей, компания занимается легитимизацией собственного поведения [18]. А. Сирбу констатирует формирование алгоритмической предвзятости для фрагментации и поляризации общественных дебатов [24].   


      Участники дискуссии не подвергают сомнению постановку идеальной задачи выявления и корректировки случаев «усвоения» алгоритмами ИИ предвзятых решений, принимавшихся в реальной жизни. Отмечается, что одним из основополагающих аргументов в пользу развития ИИ в целом и автоматизации принятия решений в частности является снижение предвзятости, присущей человеку и якобы не присущей алгоритмам [16]. В то же время ставится вопрос: насколько это возможно, если на функциональность алгоритма оказывают фундаментальное влияние ценности его разработчиков, осуществляющих ручную корректировку индексов поисковых систем и критериев ранжирования? [8].


      Проблема «чистоты» ИИ, применительно к политическому влиянию в нейросетях, подается в более острой и широкой постановке. Большая группа авторов обсуждает меры по устранению ошибок и нарушений в моделях ИИ с политически ориентированными алгоритмами. По мнению ученых, алгоритмические механизмы фокусируют внимание на интересах одних социальных группах, но дискриминируют другие, навязывая им определенные представления о текущей ситуации в политике и негласно принимая за пользователей не всегда корректные решения касательно потребляемого контента. Так, С. Себекин видит причину проблемы в том, что ИИ «обучен на устаревших нерепрезентативных данных», а ее решение – в «обеспечении этичного подхода к обучению ИИ», включая разработку специального Этического кодекса, где был бы «четко обозначен спектр возможных вариантов применения политически ориентированных алгоритмов на нормативно-законодательном уровне» и «определены те сферы, где такое применение нежелательно» [6]. А. Серавин высказывает опасение, что использование ИИ в политических целях означает управление общественным мнением в интересах крупных медиаплатформ и корпораций, вследствие чего нарушается свобода выражения воли граждан. Автор также говорит о важности разработки законодатель¬ных инициатив, регулирующих использование ИИ в политике [7]. А. Джунгер полагает, что «политические предсказания» ИИ снимают элемент неопределенности как главную составляющую конкурентных выборов и чреваты резкими изменениями электоральных предпочтений, проявлением пораженческих настроений, повышением уровня абсентеизма и, как следствие, подрывом самого демократического процесса [20].


      В фокусе внимания другой группы исследователей находятся вопросы неизбежности, необходимости, полезности/вредности направленного человеческого влияния. Общий тезис здесь такой: предвзятость алгоритмов неизбежно формируется предвзятостью реального мира [25]. Затрагивая цивилизационно-культурный аспект проблемы, Н. Бостром и Э. Юдковский замечают, что если бы алгоритмы ИИ разрабатывал Архимед, то они имели бы отпечаток древнегреческого социального устройства, в том числе представлений о том, что рабство – это абсолютно приемлемое явление [15]. А. Шиллер считает, что предоставление «очищенных» от человеческого влияния данных по реальному поведению людей для тренировки алгоритмов ИИ может привести к усилению структурной дискриминации путем воспроизведения стереотипов, заложенных в исходной информации [12]. По мнению К. Мартина, алгоритмы ИИ должны быть ценностно нагруженными, а не нейтральными. Они обеспечивают или ослабляют права заинтересованных сторон, играют важную роль в этических решениях и влияют на делегирование ролей и обязанностей в рамках этих решений [23].


      Анализируя использование ИИ в журналистике, М. Карлсон утверждает, что «механическая (универсальная) объективность», присущая любой алгоритмической технологии, может привести к тому, что объективность как профессиональная норма будет размыта в традиционной журналистике [17].


      ЗАКЛЮЧЕНИЕ


      В рамках обсуждения перспектив развития искусственного интеллекта ставятся вопросы активизации его позитивных возможностей и нейтрализации негативных эффектов. Среди глобальных недостатков и угроз выделяется проблема предвзятости (bias) нейросетей, которая, в свою очередь, подразделяется на три основных уровня: 1. Отсутствие или некорректный подбор данных для обучения. 2. Неадекватное построение алгоритмов анализа. 3. Человеческое вмешательство в формирование смысловых установок. Устранение недостатков в функционировании каждого из уровней возможно, по мнению большинства исследователей, за счет технологического, нормативно-правового и этического регулирования действий организаторов нейросетей – разработчиков моделей, программистов системных процессов и создателей контента, а также итоговых продуктов ИИ. В идеале эксперты видят возможность возникновения «справедливых» (взвешенных, нейтральных) выдач (рекомендаций) со стороны нейросетевых моделей.   


      На наш взгляд, в основе мотивации всех влияющих на данный процесс субъектов (гейткиперов) лежит групповой интерес. Декларативно он сводится ко всеобщей пользе на основе общечеловеческих ценностей, в реальности же ориентируется на коммерческие или политические результаты. Они требуют существенных затрат, отсюда в роли ключевых гейткиперов выступают государства (межгосударственные образования) и крупные национальные и международные корпорации, разрабатывающие «дружественные» модели ИИ.  


      Очевидно, что даже такие субъекты не способны в полной мере регулировать международное или даже национальное информационное пространство вследствие наличия в нем огромного количества разнонаправленных источников с невозможностью их полной блокировки. В то же время, чтобы попасть в рекомендательное поле ИИ, всякие сведения должны быть закреплены в информационном, в первую очередь медийном пространстве страны-производителя той или иной модели ИИ. Но медиапространство подлежит регулированию: каждое государство стремится синхронизировать официальный информационный поток и рассеять, путем запретов или ограничений, подобный поток со стороны враждебных структур. Опыт подобного управления демонстрирует Китай, где создана Государственная администрация по делам кибербезопасности и принят Закон КНР о кибербезопасности. Варианты нежелательных трактовок официальной информации  законодательно ограничены и в России: например, статья 207.3. УК РФ от 13.06.1996 № 63-ФЗ «Публичное распространение заведомо ложной информации об использовании Вооруженных Сил РФ, исполнении государственными органами РФ своих полномочий, оказании добровольческими формированиями, организациями или лицами содействия в выполнении задач, возложенных на Вооруженные Силы РФ или войска национальной гвардии РФ»  делает подобные действия уголовно наказуемыми. В медиапространстве США, несмотря на провозглашенную роль защитника демократии и свободы слова, «неформально» сформирован однополярный агрессивно-враждебный тон по отношению к России и ее союзникам. 


      Получается, что если «технологический» ИИ обеспечивает независимую деятельность медиаструктур появлением алгоритмов, то противодействие попыткам «медиаимпериализма» (ИИ-доминирования) со стороны одного государства возможно лишь путем конкурентных действий со стороны других государств. Поэтому ожидание выхода нейросетей на производство универсальных решений-рекомендаций, равно как опасение подавления искусственным интеллектом человека в виде «восстания машин» на данный момент преждевременны. Оптимистичный прогноз говорит о том, что нейросети будут наращивать свою общественную полезность. Но политическое и коммерческое управление ИИ останется за человеком. В одном, более общем случае оно будет направляться на формирование у граждан актуальных установок (стереотипов) социального поведения; в другом случае, более локальном, – станет способствовать созданию требуемого образа продукта или даже самого ресурса ИИ. 


      Проведенный в рамках подготовки настоящей статьи эксперимент продемонстрировал роль ИИ-моделей Алиса AI, ChatGPT, DeepSeek в формирования политических смыслов. Эти модели, созданные в различных странах поддерживающими их государственную политику корпорациями, находятся под воздействием заинтересованных субъектов управления. Они не заменяют человека в принятии стратегических решений на основе субъективных факторов, важнейшим из которых является национальный (корпоративный) интерес. При том, что работа моделей ИИ предусматривает тщательный отбор и проверку фактов, нейросети продуцируют (как в случае с СВО) их различные интерпретации. Таким образом, ИИ выполняет смыслообразующую функцию в интересах конкурирующих между собой государств и корпораций.



      Примечания


      1. Социальная сеть Twitter (X) признана экстремистской и запрещена на территории Российской Федерации.




      Список литературы


      1. Вэй Тяньтянь. Риски международного общественного мнения под влиянием ChatGPT // Коммуникационный вектор – 2025: материалы Всероссийского симпозиума / под ред. А.Н. Чумикова, Э.Э. Шульца. Москва: Блок-принт, 2025. C. 16-21.
      2. Горбачева Т.А. Искусственный интеллект: риски и проблемы внедрения в Российской Федерации // Инновационная экономика: информация, аналитика, прогнозы. 2025. № 1. С. 96–105. DOI: 10.47576/2949-1894.2025.1.1.014 
      3. Касюк А.Я. Глобализация и политические медиакоммуникации: тенденции, вызовы, перспективы // Управление коммуникациями – 2024: материалы IV Международной научно-практической конференции / под ред. А.Н. Чумикова, Э.Э. Шульца. Москва: Блок-принт, 2025. C. 119-128. 
      4. Ковалев С.Д. Ответственность за ошибки искусственного интеллекта // Аграрное и земельное право. 2024. № 8(236). С. 67-69. https://doi.org/10.47643/1815-1329_2024_8_67
      5. Коломийцева Е.Ю. Нейросети в работе медиа: грани взаимодействия // Управление коммуникациями – 2023: материалы III Международной научно-практической конференции / под ред. А.Н. Чумикова, Э.Э. Шульца. Москва: Блок-принт, 2024. C. 98-104.
      6. Себекин С.А. Искусственный интеллект в политических процессах: перспективы и вызовы // Известия Иркутского государственного университета. Серия Политология. Религиоведение. 2023. Т. 46. С. 7–18. DOI: https://doi.org/10.26516/2073-3380.2023.46.7
      7. Серавин А.И. Искусственный интеллект и политический процесс: задачи на перспективу // Власть. 2025. № 2. С. 9-18.
      8. Смирнова А.И. Предвзятость как проблема алгоритмов ИИ: этические аспекты // Философия и общество. 2023. № 3. С. 118–126. DOI: 10.30884/jfio/2023.03.07.
      9. Соловьев В.А. Трансформация доверия к ИИ-журналистике в условиях эскалации общественно-политической напряженности // Управление коммуникациями – 2025: материалы V Международной научно-практической конференции / под ред. А.Н. Чумикова, Э.Э. Шульца. Москва: Блок-принт, 2026. C. 28-36.
      10. Харитонова Ю.С., Савина В.С., Паньини Ф. Предвзятость алгоритмов искусственного интеллекта: вопросы этики и права // Вестник Пермского университета. Юридические науки. 2021. Вып. 53. C. 488–515. DOI: 10.17072/1995-4190-2021-53-488-515
      11. Шафир Т.В. Трансформация роли редакций в условиях роста алгоритмических медиа // Управление коммуникациями – 2025: материалы V Международной научно-практической конференции / под ред. А.Н. Чумикова, Э.Э. Шульца. Москва: Блок-принт, 2026. C. 45-53. 
      12. Шиллер А.В. Место этической системы в архитектуре искусственного интеллекта // Вестник Томского государственного университета. 2020. № 456. С. 99–103.
      13. Bias in AI. Рувики. Экспертиза РАН. URL: https://ru.ruwiki.ru/wiki/Bias_in_AI?ysclid=mlh1zmpm99323353706 (дата обращения: 24.02.2026).
      14. Boyd-Barrett O. Media Imperialism Reformulated // Electronic Empires – Global Media and Local Resistance / Ed. by D. Thussu. London: Arnold, 1998. 310 p. Р. 157-177.
      15. Bostrom N., Yudkowsky E. The Ethics of Artificial Intelligence // Artificial Intelligence Safety and Security / ed. by R. V. Yampolskiy. New York: Routledge, 2018. Pp. 57–69. 
      16. Bozdag E. Bias in Algorithmic Filtering and Personalization // Ethics and Information Technology. 2013. Vol. 15. Pp. 209–227.
      17. Carlson M. News Algorithms, Photojournalism and the Assumption of Mechanical Objectivity in Journalism. Digital Journalism. 2019. 7 (1). Pp. 1-17. DOI: 10.1080 /21670811.2019.1601577
      18. Floridi L. Translating Principles into Practices of Digital Ethics: Five Risks of Being Unethical. Philosophy & Technology. 2019. Issue 32(2). Pp. 185–193. 
      19. Harper N. Does ChatGPT Have a Liberal Bias? ChatGPT is exhibiting eft-leaning views on Trump, fossil fuels, and gender // Trill. March, 8, 2023. URL: https://www.trillmag.com/news/tech/does-chatgpt-have-a-liberal-bias/ (дата обращения: 24.02.2026).
      20. Jungherr A. Artificial Intelligence and Democracy: A Conceptual Framework // Social Media + Society. 2023. Vol. 3, Iss. 3. P. 1–14. URL: https://journals.sagepub.com/doi/epub/10.1177/20563051231186353
      21. Kaul V. Globalization and Media // Journal of Mass Communication & Journalism. 2011. Vol. 1. Issue 1. P. 1-6. DOI:10.4172/2165-7912.1000105  
      22. Lewin K. Frontiers in group dynamics: Concept, method and reality in social science; social equilibria and social change // Human relations. 1947. Т. 1. №. 1. P. 5-41.
      23. Martin K. Ethical Implications and Accountability of Algorithms // Journal of Business Ethics. 2019. Vol. 160. Pp. 835–850.
      24. Sîrbu A., Pedreschi D., Giannotti F., Kertész J. Algorithmic Bias Amplifies Opinion Fragmentation and Polarization: A Bounded Confidence Model // PloS one. 2019. № 14(3). DOI: https://doi.org/10.1371/journal.pone.0213246          
      25. Shaulova T. Artificial Intelligence vs. Gender Equality // International Relations and Dialogue of Cultures. 2019. Vol. 7. Pp. 52–54.
      26. Shoemaker P.J., Reese S.D. Mediating the Message: Theories of Influences on Mass Media Content, Second Edition. Longman Publishers, USA, 1996. 313 p.
      27. White D.M. The “gate keeper”: A case study in the selection of news // Journalism quarterly. 1950. Т. 27. №. 4. P. 383–390.
      28. Wulfsohn J.A. ChatGPT faces mounting accusations of being “woke”, having liberal bias // Fox News. February 16, 2023. URL: https://www.foxnews.com/media/chatgpt-faces-mounting-accusations-woke-liberal-bias (дата обращения: 24.02.2026).
      29. Xiao F., Shangkun C., Minjia M., Hongzhe Z., Ming Z., Xiaohang Z. Bias of AI-generated content: an examination of news produced by large language models // arXiv:2309.09825v3. April, 3, 2024. DOI: https://doi.org/10.48550/arXiv.2309.09825


      Информация об авторах


      Чумиков Александр Николаевич, доктор политических наук, профессор; профессор кафедры коммуникационных технологий Института международных отношений и социально-политических наук Московского государственного лингвистического университета; г. Москва, Российская Федерация.


      Чумикова Светлана Юрьевна, кандидат политических наук, доцент кафедры рекламы и бизнес-коммуникаций Института международной экономики и бизнеса Российского университета дружбы народов им. П. Лумумбы; г. Москва, Российская Федерация.


      Автор-корреспондент

      Чумиков Александр Николаевич, e-mail: chumikov@pr-club.com




      INFORMATION TECHNOLOGY:

      SCIENCE AND PRACTICE

      Original Paper


      States, corporations and artificial intelligence models 

      as subjects of the meaning-making process 

      in the information space



      Alexander N. Сhumikov 1,  Svetlana Yu. Chumikova 2


      1 Moscow State Linguistic University,

      Moscow, Russian Federation,

      ORCID: https://orcid.org/0000-0002-7208-9783, e-mail: chumikov@pr-club.com


      2 Peoples' Friendship University of Russia,

      Moscow, Russian Federation,

      ORCID: https://orcid.org/0000-0003-3801-0637, e-mail: chumikova-syu@rudn.ru


       

      Abstract: 

      This article examines the problematic aspects of the influence of various actors on the functioning of artificial intelligence (AI) models. In one case, the inaccuracies of developers and AI model algorithms, referred to as "technical errors", are documented; in another, political and commercial influence from states and large corporations is observed, leading to bias and social discrimination produced by neural networks. The term "influence" is euphemistically disguised as "bias", which most experts believe is potentially mitigable in each case: through technological improvements to algorithms to maximize the use of objective data, and by creating a more independent evaluation system in AI models. It is assumed that these goals are achievable through new and adequate legal and ethical norms capable of eliminating the digital divide. The authors of the article expand on this understanding and demonstrate that the fundamental basis for statements and advisory assessments from AI models is the media-dominated information space. It is regulated by the normative and informal attitudes of influential actors—gatekeepers, primarily government agencies and large commercial entities. If AI products contradict these attitudes, they are excluded from the media landscape, which is neutral only in an idealistic sense. The operation of political influence mechanisms is illustrated by the examples of the Alice AI, ChatGPT, and DeepSeek models, owned and developed by Russian, American, and Chinese developers, respectively. The queries (prompts) and responses of these models on a number of aspects of the current Russian-Ukrainian conflict reveal not only the fundamental differences in assessments but also the role of each AI system as a conduit for political meanings shaped by their respective states. The conclusion is that AI models, while technically improving and increasing their social utility, do not achieve the desired "objectivity" and "independence", but instead pursue current political and commercial interests by offering factual compositions and semantic interpretations acceptable to governing entities.

      Keywords: Artificial intelligence, neural networks, AI models, AI development, the problem of AI "purity", the use of AI for political purposes, the influence of commercial structures and the developer company, gatekeepers, the media space, algorithm improvement, developer values, objectivity as a professional norm, Alice AI, ChatGPT, DeepSeek, Special Military Operations (SMO), the annexation of Crimea to Russia, China and the United States in the Russian-Ukrainian conflict, Donald Trump, George Biden


      References


      1. Ve`j Tyan`tyan` (2025) Riski mezhdunarodnogo obshhestvennogo mneniya pod vliyaniem ChatGPT [Risks to International Public Opinion Under the Influence of ChatGPT]. – Kommunikacionny`j vektor [Communications Vector] – 2025: materialy` Vserossijskogo simpoziuma / pod red. A. N. Chumikova, E`. E`. Shul`cza. Moskva: Blok-print, 2025. C. 16-21. (In Russ.)
      2. Gorbacheva T. A. (2025) Iskusstvenny`j intellekt: riski i problemy` vnedreniya v Rossijskoj Federacii [Artificial Intelligence: Risks and Challenges of Implementation in the Russian Federation]. – Innovacionnaya e`konomika: informaciya, analitika, prognozy` [Innovative Economy: Information, Analytics, Forecasts]. 2025. № 1. S. 96–105. DOI: 10.47576/2949-1894.2025.1.1.014 (In Russ.)
      3. Kasyuk A. Ya. (2025) Globalizaciya i politicheskie mediakommunikacii: tendencii, vy`zovy`, perspektivy` [Globalization and Political Media Communications: Trends, Challenges, Prospects]. – Upravlenie kommunikaciyami [Communications Management] – 2024: materialy` IV Mezhdunarodnoj nauchno-prakticheskoj konferencii / pod red. A. N. Chumikova, E`. E`. Shul`cza. Moskva: Blok-print, 2025. C. 119-128. (In Russ.)
      4. Kovalev S. D. (2024) Otvetstvennost` za oshibki iskusstvennogo intellekta [Liability for Artificial Intelligence Errors]. – Agrarnoe i zemel`noe parvo [Agrarian and Land Law]. 2024. № 8(236). S. 67-69. https://doi.org/10.47643/1815-1329_2024_8_67 (In Russ.)
      5. Kolomijceva E. Yu. (2024) Nejroseti v rabote media: grani vzaimodejstviya [Neural Networks in Media Operations: Facets of Interaction]. – Upravlenie kommunikaciyami [Communications Management] – 2023: materialy` III Mezhdunarodnoj nauchno-prakticheskoj konferencii / pod red. A. N. Chumikova, E`. E`. Shul`cza. Moskva: Blok-print, 2024. C. 98-104. (In Russ.)
      6. Sebekin S. A. (2023) Iskusstvenny`j intellekt v politicheskix processax: perspektivy` i vy`zovy` [Artificial Intelligence in Political Processes: Prospects and Challenges]. – Izvestiya Irkutskogo gosudarstvennogo universiteta. Seriya Politologiya. Religiovedenie [Bulletin of Irkutsk State University. Series: Political Science. Religious Studies]. 2023. T. 46. S. 7–18. DOI: https://doi.org/10.26516/2073-3380.2023.46.7 (In Russ.)
      7. Seravin A. I. (2025) Iskusstvenny`j intellekt i politicheskij process: zadachi na perspektivu [Artificial Intelligence and the Political Process: Future Challenges]. – Vlast` [Government]. 2025. № 2. S. 9-18. (In Russ.)
      8. Smirnova A. I. (2023) Predvzyatost` kak problema algoritmov II: e`ticheskie aspekty` [Bias as a Problem in AI Algorithms: Ethical Aspects]. – Filosofiya i obshhestvo [Philosophy and Society]. 2023. № 3. S. 118–126. DOI: 10.30884/jfio/2023.03.07. (In Russ.)
      9. Solov`ev V. A. (2026) Transformaciya doveriya k II-zhurnalistike v usloviyax e`skalacii obshhestvenno-politicheskoj napryazhennosti [Transformation of Trust in AI Journalism in the Context of Escalating Sociopolitical Tensions]. – Upravlenie kommunikaciyami [Communications Management] – 2025: materialy` V Mezhdunarodnoj nauchno-prakticheskoj konferencii / pod red. A. N. Chumikova, E`. E`. Shul`cza. Moskva: Blok-print, 2026. C. 28-36. (In Russ.)
      10. Haritonova Yu. S., Savina V. S., Pan`ini F. (2021) Predvzyatost` algoritmov iskusstvennogo intellekta: voprosy` e`tiki i prava [Bias in Artificial Intelligence Algorithms: Ethical and Legal Issues]. – Vestnik Permskogo universiteta. Yuridicheskie nauki [Bulletin of Perm University. Legal Sciences]. 2021. Vy`p. 53. C. 488–515. DOI: 10.17072/1995-4190-2021-53-488-515 (In Russ.)
      11. Shafir T. V. (2026) Transformaciya roli redakcij v usloviyax rosta algoritmicheskix media [Transformation of the Role of Editorial Offices in the Context of the Growth of Algorithmic Media]. – Upravlenie kommunikaciyami [Communications Management] – 2025: materialy` V Mezhdunarodnoj nauchno-prakticheskoj konferencii / pod red. A. N. Chumikova, E`. E`. Shul`cza. Moskva: Blok-print, 2026. C. 45-53. (In Russ.)
      12. Shiller A. V. (2020) Mesto e`ticheskoj sistemy` v arxitekture iskusstvennogo intellekta [The Place of the Ethical System in the Architecture of Artificial Intelligence]. – Vestnik Tomskogo gosudarstvennogo universiteta [Bulletin of Tomsk State University. 2020. № 456. S. 99–103. (In Russ.)
      13. Bias in AI. URL: https://ru.ruwiki.ru/wiki/Bias_in_AI?ysclid=mlh1zmpm99323353706 (accessed: 24.02.2026). (In Russ.)
      14. Boyd-Barrett O. (1998). Media Imperialism Reformulated. – In: Electronic Empires – Global Media and Local Resistance / Ed. by D. Thussu. London: Arnold. 310 p. Р. 157-177. (In Eng.)
      15. Bostrom N., Yudkowsky E. (2018). The Ethics of Artificial Intelligence. – In: Artificial Intelligence Safety and Security / ed. by R. V. Yampolskiy. New York: Routledge. Pp. 57–69. (In Eng.)
      16. Bozdag E. (2013). Bias in Algorithmic Filtering and Personalization. – Ethics and Information Technology. Vol. 15. Pp. 209–227. (In Eng.)
      17. Carlson M. (2019). News Algorithms, Photojournalism and the Assumption of Mechanical Objectivity in Journalism. Digital Journalism. 7 (1). Pp. 1-17. DOI: 10.1080 /21670811.2019.1601577 (In Eng.)
      18. Floridi L. (2019). Translating Principles into Practices of Digital Ethics: Five Risks of Being Unethical. Philosophy & Technology. Issue 32(2). Pp. 185–193. (In Eng.) 
      19. Harper N. (2023). Does ChatGPT Have a Liberal Bias? ChatGPT is exhibiting eft-leaning views on Trump, fossil fuels, and gender. – Trill. March, 8. URL: https://www.trillmag.com/news/tech/does-chatgpt-have-a-liberal-bias/ (accessed: 24.02.2026). (In Eng.)
      20. Jungherr A. (2023). Artificial Intelligence and Democracy: A Conceptual Framework. – Social Media + Society. Vol. 3, Iss. 3. P. 1–14. URL: https://journals.sagepub.com/doi/epub/10.1177/20563051231186353 (In Eng.)
      21. Kaul V. (2011). Globalization and Media. – Journal of Mass Communication & Journalism. Vol. 1. Issue 1. P. 1-6. DOI:10.4172/2165-7912.1000105 (In Eng.) 
      22. Lewin K. (1947). Frontiers in group dynamics: Concept, method and reality in social science; social equilibria and social change. –  Human relations.  №. 1. P. 5-41. (In Eng.)
      23. Martin K. (2019). Ethical Implications and Accountability of Algorithms. – Journal of Business Ethics. Vol. 160. Pp. 835–850. (In Eng.)
      24. Sîrbu A., Pedreschi D., Giannotti F., Kertész J. (2019). Algorithmic Bias Amplifies Opinion Fragmentation and Polarization: A Bounded Confidence Model. – PloS one. № 14(3). DOI: https://doi.org/10.1371/journal.pone.0213246          
      25. Shaulova T. (2019). Artificial Intelligence vs. Gender Equality. – International Relations and Dialogue of Cultures. Vol. 7. Pp. 52–54. (In Eng.)
      26. Shoemaker P. J., Reese S. D. (1996). Mediating the Message: Theories of Influences on Mass Media Content, Second Edition. Longman Publishers, USA. 313 p. (In Eng.)
      27. White D. M. (1950). The “gate keeper”: A case study in the selection of news. – Journalism quarterly. Т. 27. №. 4. P. 383–390. (In Eng.)
      28. Wulfsohn J. A. (2023). ChatGPT faces mounting accusations of being “woke”, having liberal bias. – Fox News. February 16. URL: https://www.foxnews.com/media/chatgpt-faces-mounting-accusations-woke-liberal-bias (accessed: 24.02.2026). (In Eng.)
      29. Xiao F., Shangkun C., Minjia M., Hongzhe Z., Ming Z., Xiaohang Z. (2024). Bias of AI-generated content: an examination of news produced by large language models. – arXiv:2309.09825v3. April, 3. DOI: https://doi.org/10.48550/arXiv.2309.09825 (In Eng.)



      Information about the authors 


      Alexander N. Chumikov, Dr. Sci. (Political), Prof.; Prof., Department of Communication Technologies, Institute of International Relations and Socio-Political Sciences, Moscow State Linguistic University; Moscow, Russian Federation.


      Svetlana Yu. Chumikova, Cand. Sci. (Political), Associate Prof., Department of Advertising and Business Communications, Institute of International Economics and Business, Peoples' Friendship University of Russia named after P. Lumumba; Moscow, Russian Federation.


      Corresponding author

      Alexander N. Chumikov, e-mail: chumikov@pr-club.com  



      Nauka. Obŝestvo. Oborona. 2026. Vol. 14, no. 2. P. 00–00.

      Назад к списку Следующая
      • Авторам
      • Рецензирование рукописей
      • Редакционная коллегия
      • Публикационная этика
      • Рубрики
      • Архив
      Категории
      • 2026-2(47)4
      • 2026-1(46)13
      • 2025-4(45)13
      • 2025-3(44)10
      • 2025-2(43)9
      • 2025-1(42)9
      • 2024-4(41)12
      • 2024-3(40)11
      • 2024-2(39)10
      • 2024-1(38)10
      • 2023-4(37)13
      • 2023-3(36)13
      • 2023-2(35)13
      • 2023-1(34)13
      • 2022-4(33)12
      • 2022-3(32)8
      • 2022-2(31)8
      • 2022-1(30)8
      • 2021-4(29)7
      • 2021-3(28)8
      • 2021-2(27)10
      • 2021-1(26)10
      • 2020-4(25)10
      • 2020-3(24)11
      • 2020-2(23)12
      • 2020-1(22)12
      • 2019-4(21)12
      • 2019-3(20)12
      • 2019-1(18)10
      • 2018-4(17)10
      • 2018-3(16)10
      • 2018-2(15)10
      • 2018-1(14)10
      • 2017-4(13)10
      • 2017-3(12)10
      • 2017-2(11)10
      • 2017-1(10)10
      • 2016-4(9)10
      • 2016-3(8)10
      • 2016-2(7)10
      • 2016-1(6)10
      • 2015-2(5)10
      • 2015-1(4)12
      • 2014-2(3)10
      • 2014-1(2)13
      • 2013-1(1)9

      • АРХИВ ВЫПУСКОВ
      Это интересно

      • Вычеров Д.А., Петрова С.А. Рапорты отрядов пионерских лагерей как исторический источник по блокадному детству
        9 апреля 2026

      • Баранова Е.В., Альтовская Е.А. Калининградский вагоностроительный завод в первое десятилетие истории Калининградской области (1946–1956 гг.): вклад в формирование экономической инфраструктуры региона России
        4 апреля 2026

      • Шакалов И.И. Воспитание допризывной молодежи в Российской Федерации в условиях Специальной военной операции: проблемы, вызовы и новые подходы
        31 марта 2026
      Облако тегов
      А.В. Руцкой А.Г. Орлов А.М. Василевский А.Н. Сенявин А.Я. Вышинский азиатский рынок торговли Азия Азовская флотилия Александр I Андре Марти Андрей Вышинский антифашизм Аугусто Россо Б.Н. Ельцин без срока давности Ближний Восток В.А. Плотников В.В. Данилевский В.В. Каменский В.М. Молотов В.С. Черномырдин Великая Отечественная война Версальская система ВМФ военное сотрудничество Вторая ми Вторая мировая война Г.Г. Орлов геноцид геноцид белорусского народа геноцид советского народа германская агрессия Голанские высоты государственный переворот Е.Т. Гайдар Екатерина II З.В. Удальцова Западный проект Израиль Иран история Азии история логистики история международных отношений источниковедение Китай Константинополь Конституционная Комиссия Конституционное Совещание Конституция Корпус стражей исламской революции КСИР культурный и религиозный обмен Лига наций Локарнские соглашения Лукашенко М. Гаврилович М.П. Кирпонос М.С. Горбачёв межнациональное согласие мигранты миграционная политика Мюнхенское соглашение Н.А. Гаген нападение Германии на Поль Наполеон нацизм национальная безопасность НСДАП О.Г. Румянцев операция «Факел» П.А. Румянцев П.И. Багратион П.И. Субботин-Пермяк Пальмиро Тольятти письма военных лет поворот в Салерно политические партии Польский вопрос Путин Пьетро Бадольо Р.И. Хасбулатов раздел Чехословакии ремилитаризация Рейнской зоны Ренато Прунас Россия и Турция Русско-турецкая война Сирия советская цивилизация соцреализм СССР Сталин судебные процессы о геноциде Тегеранская конференция Третья Московская конференция Ф.И. Голиков фашизм фашистский проект Холокост Царьгр Черноморские Проливы Черноморский флот Чесменское сражение Шарль Де Голль Шелковый путь экономика Азии экономика Китая экономика России Энтони Иден эпистолография Эрколи этнический анклав Югославия
      Подписка на новые публикации:
      Журнал
      О журнале
      Главный редактор
      Авторы
      История
      Лицензии
      Партнеры
      Помочь журналу
      Наука
      Книжная полка
      Конференции
      Международная олимпиада по военной истории
      Открытый доступ (Open Access)
      Общество
      В защиту исторической правды
      Включайся в реальную работу!
      Выборы-2016
      Общество
      Патриот России
      Оборона
      История
      Кадры и наука ОПК России
      Современность
      Наши контакты

      +7 (926) 336-72-58
      Пн. – Пт.: с 9:00 до 18:00
      Адрес редакции: Москва, ул. Левобережная, д. 4, корп. 12
      kiknadzevg@mail.ru
      © 2013 - 2026 Сетевое издание "Наука. Общество. Оборона" (Nauka. Obŝestvo. Oborona). Основано в 2013 г. Сайт является средством массовой информации. Зарегистрировано в Роскомнадзоре (Эл № ФС77-53538 от 04.04.2013 г.) 12+ ISSN 2311-1763 (Online) Учредитель: Кикнадзе В.Г. Главный редактор: Кикнадзе В.Г. Редакция: KiknadzeVG@mail.ru Тел.:+79263367258 Полное или частичное воспроизведение материалов сайта без ссылки / гиперссылки и упоминания имени автора запрещено. All rights reserved
      sunny leone wikipedia in hindi videomegaporn.mobi tamil anchor
      akad movie karatetube.mobi kagal xxx videos
      فيديو سكس عربى cyberpornvideos.com سكس لمايا خليفة
      shridevi sex ultratube.mobi live video sexy
      indian nangi chut xxxleap.com dharmapuri scandal
      طيز عربى sexarabporno.com تبعبص نفسها
      abot kamay na pangarap nov 9 teleseryestvheaven.com a family affair july 29
      sex story audio pakato.mobi brazzerstv
      telgusex bigbobmovs.com babita kapoor young
      x anime por nicehentai.com shinobu tanei
      live se cams apacams.com vika73
      ولد يبوس بنت roughtube.org ممثلات عرايا
      sadi sex com megeno.mobi raja xvideo
      milf mobi tubetrius.com badjojo
      سكس مطروح farmsextube.net افلام انجيلا وايت