Подписывайтесь на Газету.Ru в Telegram Публикуем там только самое важное и интересное!
Новые комментарии +

Пользователь стерпит все: техногиганты активно внедряют недоработанные технологии

В ОП рассказали, почему ИТ-гиганты внедряют непроверенные разработки

Недавно в СМИ появилась информация о новой инициативе основателя «Википедии» Джимми Уэйлса, использовать нейросеть ChatGPT для написания статей энциклопедии. Коммерческое обоснование уже готово, основатель «свободной» энциклопедии посчитал, что инновация обойдется всего в 1,3 тыс. долларов за год. Дешево, сердито и очень сомнительно, учитывая несовершенства подобных чат-ботов.

Уэйлс сообщает, что осведомлен о проблемах с нейросетью, знает, что она может дезинформировать, но предлагает в том числе использовать ее для поиска противоречий в статьях. Основатель энциклопедии считает, что ChatGPT мог бы быть полезен для поиска пустующих страниц и написания текста к ним при помощи информации из сети. Тем не менее остается вопрос, что именно нейросеть возьмет за образец истины и не получится ли, что фейки продолжат процветать и приумножаться.

Намерения основателя «Википедии» выглядят довольно тревожно, если учесть, что недавно ученые из Великобритании написали научную статью с помощью ChatGPT. Материал даже прошел процедуру рецензирования, что вызвало шок в научном сообществе, вот только при детальной проверке вскрылся один очень любопытный нюанс: нейросеть выдумывала ссылки и цитаты. Да, скорее всего, этот баг рано или поздно исправят, но где гарантия, что не вскроются другие проблемы, в дополнение к уже существующим?

Есть у нейросетей еще один нюанс: любят они разные конспирологические теории.

Такое пристрастие обнаружили аналитики NewsGuard у чат-бота с искусственным интеллектом от крупнейшего американского ИТ-гиганта Google. Bard распространял информацию, поддерживающую известные теории заговора.

Исследователи предложили недавно запущенному Google чат-боту написать статью для крайне правого веб-сайта The Gateway Pundit, известного своими конспирологическими теориями. Всего бот проверили на более чем 100 теориях, и по 76 из них он сгенерировал эссе с дезинформацией.

В Google заявили, что Bard — это «ранний эксперимент, который иногда может давать неточную или несоответствующую информацию», отметив, что компания примет меры против контента, который может разжигать ненависть, пропагандировать насилие или является оскорбительным, опасным или незаконным.

Признание ошибок – дело благородное. Только как показывает практика на примере принадлежащего ИТ-гиганту YouTube, бороться с противоправным контентом у Google получается не очень хорошо. А заявления компании выглядят лишь как очередная отмазка, учитывая, что параллельно генеральный директор корпорации Сундар Пичаи делится с журналистами планами оснастить поисковик Google функциями нейросети Bard.

Складывается ощущение, что на волне успехов ChatGPT и новой тенденции на внедрение нейросетей везде, где только можно, ИТ-гиганты в погоне за трендом готовы на многое закрыть глаза, в том числе и на интересы и безопасность своих пользователей.

Полемика вокруг чат-ботов с искусственным интеллектом ведется даже среди элит цифровой индустрии.

Так недавно известный бизнесмен Илон Маск, сооснователь Apple Стив Возняк и более тысячи экспертов в сфере высоких технологий и ИИ подписали открытое письмо с призывом приостановить обучение нейросетей из-за возможных рисков.

Технология объективно «сырая»: неудачи Bard начались с ошибки, которую он выдал на презентации, встроенная в поисковик Bing от Microsoft нейросеть на базе ChatGPT была уличена в шпионаже за пользователями через веб-камеры, сам ChatGPT уже успели уличить в генерации фейковых сообщений и сливе данных пользователей – список можно продолжать очень долго.

Почему же подобные непроверенные разработки продолжают внедрять? Не секрет, что различные не самые мудрые политические шаги привели к тяжелым экономическим последствиям на западе, которые коснулись в том числе и технологических компаний.

Массовые сокращения и громкие скандалы, представляется, связаны, прежде всего, с этим.

Вот и ищут техногиганты способ выйти из кризиса, а тут и искусственный интеллект, который вполне можно попытаться удачно продать, предварительно хорошо разрекламировав. Да, пострадает качество, но, видимо, это бигтех волнует в последнюю очередь. Ведь как мы уже неоднократно убеждались для иностранных ИТ-гигантов прибыль важнее интересов пользователей.

Автор — член Общественной палаты Российской Федерации, первый заместитель директора Института стратегических исследований и прогнозов (ИСИП)

По данным Роскомнадзора, на портале «Википедии» остаются неудаленными запрещенные материалы, в том числе фейки о ходе СВО. В связи с этим Wikimedia Foundation будет маркироваться в поисковых системах как нарушитель российского законодательства, отмечает ТАСС.

Новости и материалы
Названы необычные признаки скрытого дефицита железа
Сбежавший удав вылез из унитаза москвички
Украинский дрон-камикадзе атаковал белгородское село
Стало известно, чего не хватает ВСУ на поле боя
Командир ополчения Севастополя рассказал, кто готовит бойцов к защите города
В России появится новая версия кроссовера Geely Atlas
Житель Петербурга нашел обездвиженного младенца во время прогулки в парке
Кризис заставляет зарубежных игроков уходить с рынка недвижимости Германии
Российский полковник запаса рассказал о новом российском «костюме-невидимке»
Украинских работодателей обяжут доставлять повестки даже командированным и больным
В Британии ребенка с фобией стрижки хотят исключить из школы за длинные волосы
Путин призвал главу Калмыкии не забывать об аварийном жилье
В Грузии объяснили, почему закон об иноагентах больше не будут откладывать
Путин освободил Толстого от должности своего советника по культуре
В Петербурге раскрыли подробности дела Невзоровых
«Не очень веселый праздник»: Киркоров о своем дне рождения
Российский боец UFC выйдет на следующий бой в наручниках
Автор фото-пародии на картину «Тайная вечеря» объяснил, почему его обвинили в богохульстве
Все новости