Журнал Gerwin
Журнал Gerwin

Гонка за AGI началась — Леопольд Ашенбреннер, экс сотрудник OpenAI

Бывший сотрудник OpenAI из отдела SuperAligment Леопольд Ашенбреннер, уволенный месяц назад, делится своими мыслями по поводу AGI — нового, более сильного уровня развития ИИ
Гонка за AGI началась — Леопольд Ашенбреннер, экс сотрудник OpenAIГонка за AGI началась — Леопольд Ашенбреннер, экс сотрудник OpenAI

Предстоящее десятилетие: каким оно будет

Сан-Франциско станет местом, где зарождается будущее. Вокруг города ведутся обсуждения по поводу крупнейших вычислительных проектов, бюджет которых от 10 до 100 миллиардов долларов, достигая триллионов долларов. Борьба ведется за энергоресурсы, за каждый трансформатор напряжения, грубо говоря, а инвестиции тем временем все нарастают (как и накал).

Бизнес-индустрия Америки тем временем планирует вложить немалые средства в индустриальное развитие. Есть ожидания, что уже к 2030 году энергопроизводство вырастет в разы, подпитывая энергозатратные технологии от Пенсильвании до Невады.

Тем временем стартует гонка за AGI. Умы человечества создают ИИ, способный мыслить шире, возможно, к 2026 году он превзойдет студентов, а к 2030 году специалистов сферы IT-технологий. Он будет сверхразумом. Это, разумеется, может вызвать страх и бурную реакцию в сфере нацбезопасности, которой не было примерно полстолетия. Что ждет? Либо соперничество с Китаем, либо военное противостояние.

Леопольд Ашенбреннер работал в команде которой руководил Илья Суцкевер, и был уволен в начале апреля этого года, вместе с Павлом Измайловым в связи с «утечкой информации»

Сейчас настолько бурно обсуждается развитие ИИ, что многие детали ускользают от внимания обывателей. Эксперты Nvidia говорят, что пик становления ИИ придется на 2024 год, однако эту мысль поддерживают не все, считая, что ИИ останется просто угадывателем или рерайтером текста. Это воспринимается как белый шум, как очередное новшество, наподобие Интернета.

На данный момент лишь немногие специалисты лабораторий Сан-Франциско имеют реальное представление о ситуации. Несмотря на то, что их считали безумными, они смогли предсказать развитие ИИ на несколько лет вперед. Правы они? Покажет время. Но данные люди обладают живым интеллектом и особым мышлением и стоят у истоков технологий. Нас ждет интересное время, если все, что предугадано, окажется верным.

Итак…

От GPT-4 к AGI: перспективы

За последние годы мы стали свидетелями того, как ИИ прогрессировал из дошкольника в разумного юношу, если выражаться метафорически. Масштабный скачок мы можем ожидать уже к 2027 году, если сохранятся темпы развития и роста: эффективность алгоритмов, тенденции в сфере вычислений, путь от чат-бота до агента.

От AGI к сверхинтеллекту

Прогресс в области ИИ не остановится на развитии интеллекта до человеческого уровня: многие AGI уже сейчас позволяют ускорить научные разработки в два раза. Это станет новой эрой, правда, со своими рисками.

Разместите свою статью в журнале Гервин

Кроме наличия трафика, у нас разрешены ссылки и упоминания бренда

Стремление к триллионному кластеру

Скачок роста технокапитала не остался незаметен. Получая большие доходы от ИИ, естественно, что люди начнут вкладывать триллионы в центры обработки данных, наращивание мощности и усовершенствование графических процессоров. Примерно на 10 процентов может вырасти производство электроэнергии в США.

Меры безопасности AGI

Главные лаборатории ИИ в стране недооценивают важность безопасности. На данный момент критические данные о продвинутом искусственном интеллекте оказываются легкой добычей для Китайской народной республики. Чтобы защитить информацию о структуре и функционировании AGI от вмешательства, потребуются значительно более серьезные действия, чем те, что предпринимаются сейчас.

Нерешенная проблема

Эффективное регулирование гораздо более продвинутых ИИ-систем остается сложной задачей. Возможность находить решение существует, но в период стремительного развития ИИ возможен контрольный упадок. Менеджмент таких систем обещает быть максимально напряженным, а любая ошибка может привести к нежелательным последствиям.

Доминирование

Тот, кто в полной мере сможет обладать ИИ, будет иметь огромную мощь и превосходство в сравнении с другими государствами, в том числе и в экономике. Китай не собирается выходить из игры, а в борьбе за разработку и владение AGI мы все рискуем, стремясь к технологическому властвованию.

Проект AGI

Гонка за AGI не является выдумкой, и она становится все усиленней. Ясно, что органы национальной безопасности не останутся в стороне, и к 2028 году (примерно) можно будет увидеть правительственный проект. Стартапы просто не смогут потянуть владение и контроль над таким мощным искусственным разумом. Итоговые работы, скорее всего, будут проходить где-то в правительственных секретных лабораториях.

AGI-реализм. А что если прогнозы верны?

Суперинтеллект будет сильным и мощным, это не просто новое ПО с открытым исходным кодом, а вопрос нацбезопасности. Для достижения безопасности и владения AGI в полной мере, регулирования инфраструктуры Американские лаборатории должны поставить интересы страны на первое место. Осознавая, что есть огромные риски, так как созданная структура сложна и технологична (к тому же, умна), необходимо для начала признать уровень опасности и создать команду высококлассных специалистов, которые отнесутся к делу максимально серьезно.

В мире есть буквально несколько сотен человек, которые реально понимают примерный ход развития ИИ и риски, которые могут пойти за этим

За кулисами находятся несколько человек, пытающихся предотвратить кризис: мы, ваши друзья, знакомые. Риск саморазрушения велик. Сейчас миром правят люди и их идеи. Надолго ли это и станут ли последние вехи правления человека достойным эпилогом? Пусть будет так.