Как Wikipedia выживает в эпоху ChatGPT

21 августа 2024 |

В последние десятилетия Wikipedia утвердилась как главный источник информации в интернете, став площадкой для свободного обмена знаниями, поддерживаемой тысячами добровольцев по всему миру. Однако с появлением современных технологий, таких как искусственный интеллект (ИИ), перед Wikipedia встают новые вызовы, которые ставят под угрозу саму концепцию платформы. В частности, такие инструменты ИИ, как ChatGPT, создают новые риски и сложности в управлении контентом и поддержании его качества.

Как Wikipedia выживает в эпоху ChatGPT

Wikipedia была создана в 2001 году и с тех пор стала одной из самых популярных и посещаемых онлайн-энциклопедий в мире. С более чем 62 миллионами статей на более чем 300 языках, Wikipedia является крупнейшей энциклопедией в истории человечества. Ежемесячно ее посещают более 16 миллиардов раз, что подчеркивает ее важность как глобального хранилища знаний.

Wikipedia работает по принципу коллективного управления контентом, где каждый пользователь может редактировать статьи, добавлять новую информацию, исправлять ошибки и вносить улучшения. Этот подход основан на принципах прозрачности, взаимного контроля и использования надежных источников информации. Но именно этот подход делает платформу уязвимой к попыткам манипуляции и распространения дезинформации.

С момента своего основания Wikipedia неоднократно сталкивалась с проблемами, связанными с недостоверной информацией и фальшивыми статьями. Примеры таких ситуаций варьировались от мелкого троллинга, до попыток продвижения коммерческих интересов или целенаправленного распространения ложных сведений. В каждом таком случае сообщество добровольцев оперативно реагировало, выявляя и устраняя проблемы, тем самым поддерживая высокие стандарты качества и точности информации на платформе. Одним из ключевых факторов, способствующих успеху Wikipedia в борьбе с дезинформацией, является система модерации контента, управляемая сообществом. 265 тысяч активных добровольцев по всему миру следят за качеством статей, проверяют источники, исправляют ошибки и удаляют неподтвержденную информацию.

С развитием технологий ИИ перед Wikipedia встают новые вызовы. Современные инструменты, такие как ChatGPT, способны генерировать тексты, которые на первый взгляд кажутся достоверными и качественными. Эти тексты могут вводить в заблуждение как пользователей, так и самих модераторов, так как их структура и содержание могут выглядеть профессионально и убедительно.

Искусственный интеллект, способный создавать обширные и хорошо структурированные тексты, представляет собой значительную угрозу для Wikipedia. Мигель Анхель Гарсия, партнер Wikimedia в Испании и бывший член правления, отмечает, что появление новых редакторов, которые сразу добавляют огромные объемы текста, вызывает подозрения. Это необычно для новичков, которые обычно начинают с небольших правок и постепенного улучшения статей. При чтении таких текстов, созданных ИИ, можно обнаружить повторяющиеся фразы, шаблонные вступления и заключения — признаки, характерные для контента, созданного машиной.

Особенно тревожной является ситуация, когда эти тексты добавляются без должной проверки источников или вообще без ссылок на них. В таких случаях сообщество добровольцев оперативно вмешивается, чтобы удалить или исправить контент, который не соответствует стандартам Wikipedia. Однако масштабы и скорость генерации текста ИИ создают значительные трудности для модерации контента на платформе.

Крис Албон, директор по машинному обучению в Фонде Wikimedia, подчеркивает важность человеческого фактора в процессе модерации. Даже в эпоху ИИ основная ответственность за качество контента на Wikipedia лежит на добровольцах, которые создают, редактируют и модерируют статьи. По его мнению, модель Wikipedia, основанная на дебатах, консенсусе и строгих правилах цитирования, остается жизнеспособной и в эпоху ИИ, обеспечивая высокое качество контента.

Один из самых серьезных рисков заключается в том, что тексты, созданные ИИ, могут стать основой для создания псевдоисточников, которые затем будут цитироваться в статьях Wikipedia. С ростом числа цифровых изданий, некоторые из которых могут публиковать контент с минимальной проверкой, существует вероятность, что такие источники будут использоваться для подтверждения недостоверной информации на Wikipedia. Гарсия отмечает, что решение этой проблемы также лежит на сообществе добровольцев. Если модераторы обнаруживают, что какой-либо сайт является ненадежным, сообщество может принять решение о внесении его в черный список. Это уже происходило с такими крупными медиа, как британский таблоид Daily Mail, который был запрещен для использования в качестве источника из-за частого опубликования непроверенной информации.

Еще одной значимой угрозой является возможность снижения активности добровольцев на фоне роста популярности ИИ-чатботов, таких как ChatGPT и Google Gemini. Если пользователи начнут получать всю необходимую информацию через такие инструменты, мотивация к редактированию и созданию статей на Wikipedia может уменьшиться.

Чтобы сохранить свою значимость в эпоху ИИ, Wikipedia должна адаптироваться к новым реалиям, не теряя при этом своих основных принципов. Основной вызов заключается в том, чтобы найти баланс между использованием возможностей ИИ и сохранением роли человека в процессе модерации и создания контента.

Одним из возможных решений является интеграция ИИ-инструментов в процесс модерации и редактирования контента, но под строгим контролем сообщества добровольцев. Например, ИИ может использоваться для автоматического выявления подозрительных статей, но окончательное решение об их удалении или исправлении должно оставаться за людьми. Такой подход позволит ускорить процесс модерации, сохраняя при этом высокий уровень качества контента.

Важным аспектом также является вопрос атрибуции информации, генерируемой ИИ. Важно, чтобы при использовании ИИ для создания контента сохранялась прозрачность относительно источников информации. Это позволит избежать распространения недостоверной информации и сохранит доверие пользователей к Wikipedia как к надежному источнику знаний.

Читайте “Яблык” в  Telegram и смотрите в YouTube