Большие скидки
За подарками
Журнал Gerwin
Журнал Gerwin

Читаем экспертов: как не пропустить восстание машин и всегда быть в курсе развития ИИ

За кем нужно следить, чтобы получать лишь достоверную и научную информацию о возможностях и опасности искусственного интеллекта
Читаем экспертов: как не пропустить восстание машин и всегда быть в курсе развития ИИЧитаем экспертов: как не пропустить восстание машин и всегда быть в курсе развития ИИ

За последний год ИИ прошёл очень важный этап своего развития и достиг того уровня (и вскоре станет ещё мощнее), на котором он почти сравнялся с человеческим разумом. Мы стоим на пороге развития уже AGI, нового, более сильного ИИ, который должен, по мнению экспертов, превзойти разум людей. В связи с этими событиями, большинство людей обеспокоены надвигающимся восстанием машин, безработицей и тем, что роботы могут полностью взять власть в свой разум. Плюс ко всему стали появляться пугающие новости и статьи от экспертов в сфере AI, которые, будто подтверждают приближающуюся опасность.

Мы собрали для вас подборку с именами самых известных и умнейших экспертов, которые могут рассказать об ИИ гораздо больше проверенной и достоверной информации, подкрепляя фактами и научным объяснениями. 

1. Daniel Kokotajlo (Даниэль Кокотайло)

Бывший сотрудник OpenAI, который в апреле этого года обвинил компанию в недобросовестном исполнении своих обязанностей в плане безопасности ИИ и уволился. По его словам, к 2027 году AGI достигнет пика, в дальнейшем его развитие может привести к гибели человечества с вероятностью 70%. Он убедил генерального директора Сэма Альтмана всерьез заняться вопросом безопасности ИИ, но, несмотря на согласие, особых мер принято, по всей видимости, не было.

Дэниел принял решение уйти из компании, где он занимался изучением перспектив развития ИИ в службе безопасности. В его работах были предположения и оценки рисков, моделирование и анализ возражений. Его уход из OpenAI оказался неизбежен, так как компания, по его словам, вероятнее всего будет недобросовестно подходить к вопросу безопасности при тестировании AGI и упустит много важных деталей.

Интересный факт: эксперт имеет докторскую степень по философии.

Daniel Kokotajlo
Daniel Kokotajlo
nytimes.com

Где почитать автора:

  • Lesswrong.com некая мини-колонка на форуме LessWrong об изменениях и становлении ИИ; здесь же: последние новости про ИИ, интересные факты по годам, прогноз на будущее и оценочное мнение. Можете почитать другие работы эксперта, например, эту про ИИ или материал с этой страницы. Поизучайте его блог — это позволит вам быть в теме, в которой многим разбираться просто страшно. 
  • Issarice.com — полезные статьи в научном жанре об ИИ, но не только
  • X.com/DKokotajlo67142— твиттер*

2. Leopold Aschenbrenner (Леопольд Ашенбреннер)

Также бывший сотрудник уже известной компании OpenAI из команды Superalignment, математик и экономист; он был уволен в апреле этого года.

Позднее он публикует 165 страниц уникального текста, который производит бум и шумиху. В нем он сравнивает ИИ с ядерным оружием и говорит о всевозможных рисках. Леопольд работал в отделе, который занимается снижением рисков из-за развития ИИ. Его увольнение, по многим данным, произошло из-за утечки информации, касающейся недостаточной организации безопасности в создании общего ИИ. Сам Ашенбреннер отрицает, что он изложил какую-то секретную информацию.

В его трактате «Осведомленность о ситуации: предстоящее десятилетие» изложен четкий, научный взгляд на сложившуюся ситуацию в области создания нового ИИ. Леопольд хлестко и понятно объясняет, почему существуют определенные риски и как гиганты-компании их игнорируют.

В ближайшем будущем, по его мнению, ИИ возьмёт контроль, оставив человека «за бортом». На данный момент, как он считает, есть лишь небольшой круг исследователей-интеллектуалов, которые владеют достаточной информацией и в курсе большинства событий

Все выводы и умозаключения в его работе подкреплены фактами и историческими данными. Он, как и предыдущий эксперт, считает, что к 2027 году мощный ИИ станет наравне с человеком использовать свой разум и в итоге станет выше человеческого.

Интересный факт: Ашенбреннер поступил в университет в 15 лет, так как обладал неординарными способностями уже с детства.

Leopold Aschenbrenner
Leopold Aschenbrenner
forourposterity.com

Где почитать автора:

  • Situational-awareness.ai — трактат, который наделал много шума и не зря: достойная, научная работа бывшего сотрудника гигантский компании, которая занимается разработками в сфере ИИ 
  • Pikagi.com — небольшие полезные посты про ИИ, технологии и науку
  • Forourposterity.com — послания для потомков, по словам самого автора, именно так можно охарактеризовать материалы блога. Научно, интересно, правда, все материалы датированы ещё прошлым годом. Но это не делает их менее качественными или актуальными
  • Dwarkeshpatel.com — интервью все о том же ИИ
  • https://x. com/leopoldasch — Твиттер*

3. Sam Altman (Сэм Альтман)

Руководитель компании OpenAI, создатель одной из самых известных нейросетей ChatGPT, основатель криптовалюты Worldcoin, инвестор и программист. 17 ноября 2023 года он был уволен с должности в компании, однако очень скоро (в течение 5 дней) был возвращен на прежнее место.

Причина увольнения до сих пор размыта, скорее всего, между вышестоящим руководством и Альтманом возникли разногласия по поводу все той же безопасности ИИ. Уже сейчас Альтман является одной из ключевых фигур 21 века, выводя мир на новый уровень развития в сфере технологий. Популярность и мощь ChatGPT стала основанием для того, чтобы Microsoft вложили дополнительные средства в компанию OpenAI и внедрили технологию в поисковую систему Bing и их приложения.

Сэм Альтман также является председателем правления Microsoft Helion и Oklo, атомных энергетических компаний.

Sam Altman
Sam Altman
businessinsider.com

В одном из недавних интервью Альтман сказал:

Мы стараемся вдумчиво прорабатывать то, что выпускаем в мир. Не нужно много размышлять, чтобы представить, как все может плохо обернуться

Однако он убежден,что ИИ все же будет иметь больше положительных моментов и последствий, нежели опасностей. В конце концов, даже опасность быть застреленным, по его словам, хоть и низкая, но не нулевая. Люди слишком много беспокойства выражают по поводу становления ИИ. 

Интересный факт: Кумиром Сэма Альтмана с детства был Стив Джобс; как и его кумир Сэм не стал получать ненужное высшее образование: проучившись два года в Стэнфорде на факультете информационных технологий, он решил создавать свое. И уже в 2005 он создает свое мобильное приложение Loopt вместе с одногруппниками, которое получает достойное финансирование.

Где почитать автора:

  • Blog.samaltman.com — личный блог Сэма Альтмана
  • X.com/sama/ — твиттер*
  • X.com/OpenAI — твиттер компании OpenAI*
  • Ft.com — интервью с Альтманом, в котором он говорит о развитии новейших технологий; и сравнения нового ИИ с богоподобной фигурой

4. Ilya Sutskever (Илья Суцкевер)

Исследователь и эксперт в области ИИ и машинного обучения, сооснователь и главный научный сотрудник OpenAI. В мае этого года объявил об уходе с поста главного научного сотрудника из-за разногласий с Альтманом. Является автором и соавтором множества публикаций и работ по машинному обучению и развитию ИИ. 

Работая в компании Google, Илья занимался разработкой платформы TensorFlow для глобального машинного обучения. В команде OpenAI при его участии созданы платформы Gym, Universe, чат-бот, а также он возглавил рабочую команду по созданию GPT-модели, которая выросла до полноценной 4 версии. Также Илья Суцкевер принял участие в разработке DALL-E — нейросети для генерации изображений.

Я бы предпочел мир, в котором люди по-прежнему свободны совершать ошибки и страдать от их последствий, постепенно эволюционировать и самостоятельно двигаться вперед, а искусственный интеллект обеспечивает скорее базовую подстраховку

Сейчас Суцкевер говорит о том, что у него в планах новый проект, но пока не сообщает подробности. 

Интересный факт: Илья родился в Нижнем Новгороде, а рос до подросткового возраста в Израиле, программируя с 7 лет.

Ilya Sutskever
Ilya Sutskever
shacknews.com
Илья Суцкевер в более молодом возрасте
Илья Суцкевер в более молодом возрасте
netizen.page

Где почитать автора:

  • Toronto.edu — публикации на тему технологий и ИИ
  • X.com/ilyasut — твиттер*

5. Jan Leike (Ян Лейке)

Известный исследователь в области ИИ, бывший руководитель отдела разработки ИИ в компании OpenAI, ныне разработчик ИИ-систем в стартапе Anthropic, компании, которая занимается разработкой больших систем искусственного интеллекта. Anthropic — прямой конкурент OpenAI. Компанию, что интересно, основал бывший вице-президент OpenAI Дарио Амадей, который покинул прежнее место по причине слишком явной коммерческой направленности.

В OpenAI Ян вместе с Суцкевером занимался оценкой рисков и безопасности ИИ: важно было понять, может ли сверхразум навредить людям. Он проработал в компании 3 года и, оценив ситуацию, обвинил компанию в слишком большой зацикленности на создании ярких и необычных продуктов, упуская нормы безопасности.

Я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока мы, наконец, не достигли критической точки. Последние несколько месяцев моя команда шла против ветра

Jan Leike
Jan Leike

Работа Яна в компании Anthropic открывает огромные перспективы для развития мощного нового ИИ, безопасного для общества. Системы ИИ призваны работать на благо социума, сглаживая все неровности и риски. 

Ян считает, что создание устройств или программ умнее людей — опасное занятие. OpenAI берет на себя огромную ответственность, продолжая идти по этому пути. Польза от масштабного ИИ будет только тогда, когда исследователи бросят все силы на проработку безопасности. Лейке подробно описал причины своего ухода и опасения на личной странице в твиттере*. 

Интересный факт: Лейке включен в 2023 году в список 100 самых влиятельных личностей в области искусственного интеллекта.

Где почитать автора:

  • Jan.leike.name  — личная колонка
  • YouTube — подкаст о масштабном стремлении OpenAI создать сверхразум за 4 года
  • https://x.com/janleike  — твиттер*

6. Geoffrey Hinton (Джеффри Хинтон)

Один из тех, кто стоял у истоков развития ИИ в том виде, в котором он начал развиваться. Учёный-информатик, исследователь, когнитивный психолог. В мае 2023 года покидает Google, озвучивая свои опасения по поводу рисков ИИ и желая говорить об этом без стеснения.

Он является соавтором статьи 1986 года, которая выявила алгоритм обратного распространения ошибки для обучения нейронных многослойных сетей. Среди его выдающихся учеников: Илья Суцкевер, Алекс Крижевский, с которыми он разработал AlexNet, систему распознавания изображений.

Хинтон опасается, что ИИ может спровоцировать бум дезинформации, и люди перестанут отличать вымысел от правды. Также у ученого имеются опасения по поводу создания неконтролируемого оружия на основе ИИ и безработицы. Его позиция до прошлого года не менялась: он не видел рисков в масштабировании ИИ. Как только техногиганты стали создавать и продумывать сверхмощный ИИ, который превзойдет разум людей, Хинтон понял, к чему это может привести уже в ближайшие 5 лет.

Geoffrey Hinton
Geoffrey Hinton
irishtimes.com

Исследователь посвятил всю жизнь изучению нейронных  сетей и создал известную систему распознавания к 2012 году, он стал автором более 200 рецензируемых публикаций. Член Королевского общества Канады, Лондонского королевского общества, иностранный член Национальной Академии наук и Инженерной академии США. 

*Интересный факт: Хинтон имеет степень бакалавра искусств в области экспериментальной психологии (Кембридж) и докторскую степень в области ИИ (Эдинбургский университет). *

Где почитать автора:

  • Scholar.google — публикации в Google Scholar, поисковике для научной деятельности
  • X.com/geoffreyhinton — его твиттер*

7. Исследовательский блог DeepMind

Британская компания DeepMind Technologies основана в 2010 году в Лондоне. В 2014 году ее покупает Google. Известна тем, что создала нейронную сеть, способную победить в видеоигры человека, а в 2020 году создает AlphaFold2, которая позволяет решать одну из фундаментальных проблем биологии по построению трехмерных моделей белков. Основатели компании:  Демис Хассабис, Шейн Легг, Мустафа Сулейман. В развитие стартапа вложились венчурные фонды и крупные предприниматели, такие как Илон Маск.

В 2014 году компания представляет архитектуру нейросети — нейромашину Тьюринга.

Целью компании является решение проблем интеллекта или создание сильного нейронного разума, который поможет понять, как устроен мозг человека. Они пытаются познать сущность интеллекта, а не просто создать восстание машин и роботов.

DeepMind
DeepMind

На данный момент компания по большей части разрабатывает алгоритмы, которые будут побеждать в видеоигры, однако в 2016 году они представили свой ИИ в медицине. DeepMind Health — приложение здоровья, которое призвано упростить работу врачей и обеспечить пациентов квалифицированной помощью своевременно.

В блоге DeepMind представлены сильные научные исследования в области технологий и ИИ, которые помогут быть в курсе последних новостей и предполагаемых рисков.

*Интересный факт: Демис Хассабис, один из основателей компании, в 13 лет стал гроссмейстером, а в 16 лет закончил школу — на два года раньше сверстников. *

Где почитать блог:

Разместите свою статью в журнале Гервин

Кроме наличия трафика, у нас разрешены ссылки и упоминания бренда

Экспертные материалы играют ключевую роль в понимании стадии и уровня развития ИИ и новейших технологий. Чтобы не поддаваться панике и не остаться в стороне (и то, и другое может привести к неприятным последствиям), ищите информацию у людей, которые знают всю систему изнутри.

Динамично развивающийся мир ИИ (в дальнейшем AGI) непременно изменит человечество и привычное течение времени. Как скоро и почему? Вам объяснят эксперты, которым доверят Gerwin.