Революция, которую мы начали, и её последствия, которые мы не можем контролировать
DOI:
https://doi.org/10.47475/2949-3390-2025-5-1-140-146Ключевые слова:
контент, созданный пользователями (UGC), модерация с помощью ИИ, дезинформация, манипуляция, предвзятость, дискурс, свобода слова, этические дилеммы, медиаграмотность, проверка фактов, гражданский журнализм, репутация бренда, прозрачностьАннотация
Мы живём в эпоху новых технологий, интернета и искусственного интеллекта, где каждый человек может создавать контент в цифровом пространстве. Любой может выступить рассказчиком, провокатором, влиятельным лицом или многоликой фигурой в цифровой среде, изменяя институты и формируя новые глобальные дискурсы. Контент, созданный пользователями (UGC), стал одновременно силой, раскрывающей правду, и оружием обмана, стирая границы между подлинностью и манипуляцией на таких платформах, как «ВКонтакте», YouTube, RuTube, TikTok и многих других. Однако эта свобода самовыражения несёт риски, включая распространение дезинформации, пропаганды, этические дилеммы и проблемы регулирования. В данной статье исследуется баланс между свободой слова и ответственностью за создание контента, роль искусственного интеллекта в контроле цифровых пространств, а также влияние UGC на бренды, политику и средства массовой информации.
Библиографические ссылки
Molina, M. D., Sundar, S. S. (2022). When AI moderates online content: Effect of human collaboration and interactive transparency on user trust. Journal of Computer – Mediated Communication. Vol. 27, Issue 4, zmac010. https://doi.org/10.1093/jcmc/zmac010.
Gorwa, R., Binns, R., Katzanbach, C. (2020). Algorithmic content moderation: Technical and political challenges in automation of platform governance. Big Data & Society, 7 (1). https://doi.org/10.1177/2053951719897945.
Floridi, L. (2020). The fight for digital sovereignty: what it is, and why it matters, especially for the EU. Philosophy and technology, 33. 369–378. https://doi.org/10.1007/s13347-020-00423-6.
Zhou, X., Zafarani, R. (2020). A Survey of Fake News: Fundamental Theories, Detection Methods, and Opportunities. ACM Comput. Surv, 53, 5, Article 109 (September 2021), 40 pages. https://doi.org/10.1145/3395046
Bontridder, N., Poullet, Y. (2021). The role of artificial intelligence in disinformation. Data & Policy, 3, e32. https://doi.org/10.1017/dap.2021.20.
Pennycook, g., Rand, D. G. (2019). The implied truth effect. Management science, Vol. 66, 11. 4944–4957. https://doi.org/10.1287/mnsc.2019.3478.
Udupa, S., Maronikolakis, A., Schutze, H., Wisiorek, A. (2022). Ethical Scaling for Content Moderation: Extreme Speech and the (In)Significance of Artificial Intelligence. Discussion papers, public interest technology, publications, available at: https://shorensteincenter.org/ethical-scaling-content-moderation-extreme-speech-insignificance-artificial-intelligence/ (accessed: 01.02.2025).
Huschens, M., Briesch, M. (2023). Perceived credibility of human and AI-generated content. Human-computer interaction. https://doi.org/10.48550/arXiv.2309.02524.
Загрузки
Опубликован
Как цитировать
Выпуск
Раздел
Лицензия
Copyright (c) 2025 Зарина Мирзо

Это произведение доступно по лицензии Creative Commons «Attribution-NonCommercial-NoDerivatives» («Атрибуция — Некоммерческое использование — Без производных произведений») 4.0 Всемирная.



