Развитие ИИ движется с каждым днем все быстрее, в его совершенствование вкладывают миллиарды долларов, а ведущие «игроки» продолжают искать финансовую поддержку.
Знатоки технологий стремятся выпускать новые модели. Их цель: максимально возможно стереть разницу между тем, что сделано человеком, и тем, что создал ИИ. Однако существует одна проблема: доверие людей к ИИ. Волна недоверия присуща не только отдельным личностям, но и предприятиям, которые пугает надежность системы.
Вкупе все это усиливается общей обеспокоенностью. Например, рентген-специалисты боятся применять в работе ИИ, так как эффект «черного ящика» не гарантирует прозрачность и точность в разграничении медицинских диагнозов и постановки верного заключения.
Даже если в дальнейшем специалистам в сфере IT удастся снизить риски, разрыв доверия все равно сохранится. Как же он возникает?
Кроме наличия трафика, у нас разрешены ссылки и упоминания бренда
Эта проблема и раньше была актуальна для сети Интернет, но с появлением ИИ стала острее: фейковые кадры Папы Римского, ролик президента Молдовы и прочий сбивающий с толку контент вызывает еще больший негатив пользователей. К концу 2023 года 85% пользователей признавались, что не могут определить фейковые и настоящие источники.
Крупные компании Meta* и YouTube*, а также X сократили штат своих модераторов, и теперь рекламный контент для них создается при помощи ИИ. В США тем временем в нескольких штатах вносится законопроект против дипфейков, связанных с выборами, каждый официальный документ должен быть помечен специальным знаком.
Но стоит признать, что дезинформацию не устранить так просто. Особую роль в разграничении ложной и «искусственной» информации от достоверной будет играть уровень знаний и бдительность.
*Meta, в том числе ее продукты Facebook и Instagram и др. — признана экстремистской организацией и запрещена в России.
В большом проводимом опросе до 51,4% всех респондентов оценили риск вымирания человечества по вине ИИ примерно в 10%, а заядлые оптимисты — в 5%. Многие люди опасаются кибератак, восстания машин и рисуют страшные картины конца света. Правила ЕС и Указ Белого дома требуют, чтобы генеративные модели ИИ, вызывающие особые опасения, публиковали результаты смоделированных атак «красной команды». Но это может стать просто показушным «театром безопасности».
Самое важное при повсеместном использовании ИИ — держать людей в курсе событий и обеспечивать осведомленность, дать гарантии того, что все команды и действия никогда не будут автоматизированы на 100%. Например, при переговорах двух стран, которые владеют ядерным оружием, решение о запуске ракет должно полностью зависеть от рук человека.
Прозрачность и понятность — это то, что волнует людей и дает им гарантии надежности. В случае с использованием ИИ в компаниях и крупных фирмах не всегда есть возможность предоставить полную информацию, так как это конфиденциальная информация, влекущая риски для самой компании. Даже компании, работающие на ИИ с открытым исходным кодом, становятся не такими и открытыми. Llama 2 гораздо менее прозрачна, чем Llama 1 от компании Meta* — это говорит о том, что любая фирма будет стремиться к конфиденциальности данных и безопасности от конкурентов.
Итог здесь также состоит в том, что проблема прозрачности не испарится: необходимо разработать для каждой отрасли какой-то алгоритм, обеспечивающий определенную норму прозрачности — это облегчит процесс внедрения ИИ.
Многие пользователи придерживаются мнения, что алгоритм ИИ должен соблюдать нормы морали и уважения, не переходя в одну лишь математику. Было много попыток убедить разработчиков, учитывать права и свободы человека и прочие этические нормы. Тут неожиданно на пути встают проблемы: нормы этики не универсальны, и в разных странах свобода слова имеет разное значение. Вторая проблема: ограниченность влияния аполитичных транснациональных организаций. Третья: разноплановость политических взглядов и соображений внутри компаний.
Этичность имеет значение в каждом отдельно взятом контексте — бессмысленно и даже опасно учить алгоритмы общим нормам этичности. Поэтому и становится невозможным полностью автоматизировать все процессы.
Предвзятость возникает по многим причинам: неосведомленность, ложная информация, ограничения людей, которые занимаются разработкой. Можно предпринять много методов и научить ИИ распознавать предвзятость, разнообразить источники данных. Но это не принесет должного результата, потому что модели ИИ обучаются в закрытых средах и, попав в незнакомую, искажения неизбежны. И опять встает проблема различия менталитетов разных стран: предвзятость одних, не означает предвзятость для других.
Предвзятость неизбежна — модели обучаются людьми, а человеческий разум ограничен в своих представлениях. Здесь важно подвергать цензуре и критическому мышлению все, что создано ИИ.
Академические исследования показали, что разработать максимально стабильный алгоритм невозможно, несмотря на то, что модели постоянно совершенствуются и проходят обучения. Если во входных данных есть хоть малейший шум или недоработка, то стабильность никто не гарантирует. За пределами набора четких обучающих данных, в реальном мире, системы ИИ могут давать сбой и быть чувствительны к изменениям. Для этого и необходим человеческий разум, способный скорректировать ситуацию.
Так называемые галлюцинации ИИ — это сбои, которые могут выглядеть как признание в любви или странное провокационное заявление. Исследователи нашли способы снизить частоту такого поведения ИИ: качественные данные обучения, установление границ использования, постоянное тестирование и доработка. Но это не решит проблему на 100%. Вывод один: сгенерированная ИИ работа никогда не должна публиковаться в широком доступе без тщательной проверки человеком.
Всегда стоит понимать, что ИИ не является человеком, его «разум» ограничен набором функций, за пределами которых он уже мало что «понимает». Модели распознавания изображений могут идентифицировать предметы, лица и другие элементы, но могут и ошибиться. Шансы на ошибки снижает постоянное обучение ИИ, но не стирает эти риски.
Опять же напрашивается вывод о необходимости сотрудников, которые будут контролировать действия ИИ.
Когда в США появились первые цифровые технологии, например, производительность труда упала. Соответственно люди по всему миру боятся потерять работу с появлением более новых технологий и масштабного развития ИИ. Кроме того, существуют риски, что заработная плата тех, кто останется работать «бок о бок» с искусственным интеллектом, вырастет, а уволенные останутся вообще без денег. Появится социальное неравенство.
Крупное увольнение в UPS произошло из-за внедрения ИИ, однако позже директор отрицал данную информацию. В любом случае существуют риски неравенства (которое существовало и без появления технологий), которые можно снизить, если подходить к внедрению постепенно и грамотно.
Подробное исследование на тему: почему ИИ может стать причиной массовых сокращений людей
По данным исследований, ожидается, что к 2025 году доля ИИ в энергопотреблении центров обработки данных по всему миру вырастет до 10%. Для развития ИИ необходимы мощные чипы, что способствует появлению большого потока отходов. Но одно из исследований показало, что 1000 картинок с использованием ИИ выделяют столько углекислого газа, сколько выделяет автомобиль, который проехал 6,6 км. К тому же некоторые приложения, основанные на ИИ, могут заменить определенную деятельность по экологии, сократив расходы и неблагоприятное влияние. Госорганы стараются контролировать ситуацию законным путем, а новый подход работы центров обработки данных заключается в деятельности, основанной на возобновляемых источниках энергии. Но спрос на них растет с геометрической прогрессией, поэтому проблема остается.
Влияние ИИ на экологию неизбежно. Многие отказались от бензиновых авто, промышленных предприятий в угоду экологии. Но в современном мире полностью отказаться от подобных благ не представляется возможным, поэтому стоить оценить риски и решить: целесообразно ли повсеместное применение ИИ.
Фактически опасения людей выражаются в том, что вся власть и информация в сфере технологий находится в руках одних и тех же крупнейших компаний, которые могут загнать человечество в угол. Компании-гиганты по факту обращаются друг к другу, заказывая процессоры или для запуска моделей (Amazon и Microsoft). Тремя наиболее значимыми гигантами в США в разработке ИИ можно по праву назвать OpenAI, Inflection и Anthropic.
По данным Freedom House, свобода в Интернете снижается все больше с появлением ИИ. Использование государственными органами ИИ позволяет усиливать цензуру, пропагандировать определенный режим, распространять аналитику. Исследования говорят, что 75 из 176 стран мира используют ИИ для наблюдения, а данные граждан все чаще могут попасть в руки правительственных органов.
Очень важно, что страхи людей по поводу злоупотребления ИИ государством могут поставить на внедрении его во многие сферы большой крест, и это станет шагом назад в мире технологий. Здесь важно пойти на компромисс и обеспечить людям большую свободу и защищенность данных.
Подводя небольшой итог, можно сказать, что на сегодняшний день есть опасения и риски дальнейшего прогресса ИИ — это неизбежно. Но стоит помнить, что человечество уже вложило миллиарды долларов, сил в развитие этой отрасли, и сделано это было для эволюционирования и достижения прогресса. Будет очень обидно потерять результаты из-за боязни двигаться вперед и неумения находить разумные компромиссы во всем.