Telegram Group Search
В 2015 году философы Юваль Харари и Даниэль Канеман обсуждали, как изменится мир, когда мы создадим сильный ИИ и научимся строить продвинутых роботов. Меня особо заинтересовали рассуждения Харари о бесполезности людей в этом дивном новом мире:

«Такие страны, как Китай, пропустившие Промышленную революцию, через 150 лет смогли догнать остальных, грубо говоря, за счет своей дешевой рабочей силы. Сегодня у стран и народов, которые пропустят ИИ-революцию, уже не будет второго шанса: как только мы научимся производить искусственные тела, мозги и умы — дешевый труд Африки или Южной Азии уже не будет ничего стоить.

Одним из главных вопросов в экономике и политике на ближайшие десятилетия станет вопрос, что делать со всеми этими бесполезными людьми. Я не думаю, что у нас есть экономическая модель для такого расклада. Думаю, что благодаря технологиям у нас не будет проблем с едой, так что накормить получится всех. Проблема, скорее, в том, что делать со всеми этими скучающими людьми, утратившими значимость, ценность и смысл жизни».

Эта беседа Харари и Канемана состоялась за полгода до того, как Илон Маск, Илья Суцкевер и Сэм Альтман основали компанию OpenAI, которая грозится в ближайшие пару лет создать сильный ИИ, а Tesla и другие робо-компании еще и не начинали работать над физической оболочкой для сильного ИИ.

И все же десять лет назад общее направление цивилизационной мысли было понятно: мы стремимся создать машину, которая будет подобна человеку, но будет его значительно превосходить во всем. Философ Джеймс Джиордано называет это явление «обратным Иеговой», потому что создание оказывается более “богоподобным”, чем его создатель.

В любом случае, появление таких сверхчеловеческих машин приведет к революции, которая неизвестно чем закончится для нас — обычных людей. Харари предположил, что большинство людей станут бесполезными, а отвлечь их от отсутствия смысла жизни смогут употребление наркотиков и компьютерные игры.

В 2024 году Джеффри Хинтон (которого называют «крестным отцом ИИ», потому что его открытия легли в основу текущей ИИ-революции) поднимает те же проблемы, что и Харари 10 лет назад — ИИ накормит всех людей, но лишит их достоинства и реальной значимости:

«ИИ заменит множество людей на рабочих местах. Это должно быть хорошо, потому что приведет к большому увеличению продуктивности, которое приведет к большому увеличению богатства. Если бы это богатство распределялось равномерно, было бы чудесно — но так не будет. В системах, в которых мы живем, это богатство уйдет к богатым, а не к людям, уступившим рабочие места ИИ. Это будет очень плохо для общества: увеличится разрыв между богатыми и бедными, а этот разрыв увеличит шансы правых популистов придти к власти.

Я, конечно, верю в безусловный базовый доход, но считаю, что этого недостаточно, потому что для многих людей работа — это источник самоуважения. Поэтому если всех посадить на базовый доход, это решит проблему голода и крова над головой, но не решит проблему с самоуважением».

Я думаю, что развитие сильного ИИ и появление роботов это прекрасно, так как большая часть работ и занятий, которыми мы заняты ради пропитания — явное мучение и обуза для нас. Но безработное мировое большинство, выживающее за счет крох, упавших со стола ИИ и его владельцев — удручающая картина.
Техноолигарх Питер Тилль недавно заявил, что из-за развития ИИ гораздо сложнее придется “людям математики”, то есть технарям, а не “людям слов”, то есть гуманитариям. «Мне говорят, что в ближайшие 3-5 лет ИИ-модели будут решать все задачи американской олимпиады по математике — это многое изменит», — добавил он. Такое мнение многим может показаться контринтуитивным — ведь именно «люди математики» создают ИИ, с чего бы им страдать больше гуманитариев?

Программисты стали первыми бенефицарами ИИ технологий около-человеческого уровня — копилоты от Microsoft упростили работу с кодом, сделали самих компьютерных инженеров более компетентными и быстрыми. Но именно по этой причине массовые сокращения в связи с ИИ начались в 2022 году именно с инженеров и программистов крупных технокорпораций и продолжаются по сей день: там, где раньше требовалось 3-4 программиста, теперь справляется один.

Но все же Тилль говорит не о ИИ-программистах, которые уже тут, а об ИИ-математиках, которые только должны появиться. ИИ быстро научился программировать, потому что его натренировали на доступных массивах готового кода, созданного живыми программистами. Сам язык программирования состоит из часто повторяемых паттернов и шаблонов, и часто большие куски кода можно просто скопировать из готовых библиотек. Ну а самую сложную работу, связанную с абстрактным и творческим мышлением, — структурирование и постановку задач по программированию — за ИИ все еще делает живой специалист.

Воспитание ИИ-математика проблематично из-за сложности абстрактных понятий и строгих логических требований, которые нужно формализовать и обобщить для машинного обучения. В отличие от программирования, в сфере математики значительно меньше доступных данных и примеров для обучения нейросетей, особенно для сложных математических задач. И главное, математика часто требует интуитивного мышления и творческого подхода, которые особенно трудно воспроизвести в ИИ.

Техноолигарх Эрик Шмидт, как и Питер Тилль, считает, что вскоре нейросети одолеют и математику — и это сильно изменит мир. Он говорит: «Скоро ИИ-системы станут настолько хороши, что каждый из нас, через телефон или другое устройство, получит доступ к личному полимату в историческом смысле этого слова: представьте, что Аристотель будет консультировать вас в вопросах логики, а Оппенгеймер — физики. Это будет не личность, а скорее, знание и масштабируемый интеллект. ИИ-эквиваленты блестящих людей, которые раньше были чрезвычайной редкостью, станут широко доступны всем в ближайшее время. Что мы будем делать с суперумом, широко доступным всем?».

Представим, что в кармане у каждого действительно сидит одновременно программист, математик, физик, химик, художник, музыкант, архитектор, комик и философ. Если выйти из парадигмы, в которой ИИ делает всех людей бесполезными, то кто от такого расклада выиграет больше: человек цифр или человек слова, технарь или гуманитарий?
Я работаю над своей первой интеллектуальной биографией — в форме подкаста. Записывая его, я восстанавливаю картину формирования своего ума и вижу, как наука, религия, мистика, философия и искусство сформировали то, что я называю своей личностью.

Моя собеседница на подкасте «bojemoi.идеи» — Настя Травкина, которая уже больше 16 лет выполняет роль моего основного интеллектуального партнера. Она — первая, с кем я проговариваю все важные, новые, сложные идеи и концепции, исходя из которых я строю свою жизнь и философию. Мы провели в ожесточенных спорах и бесконечных поисках истины без преувеличения тысячи часов, часто бывали несогласны и переубеждали друг друга, проходили затяжные интеллектуальные конфронтации и периоды абсолютного единомыслия. На подкасте же почти не спорим, а скорее перепросматриваем ключевые идеи и концепции, которыми мы по отдельности и вместе жили всю сознательную жизнь.

С еще большим интересом я слушаю Настину историю интеллектуального формирования и с удовольствием осознаю, что наши психологические и интеллектуальные противоположности притягиваются, а в их взаимодействии рождается истина, которая никогда не бывает конечной.

Эклектичность подкаста и широкий набор идей, которые мы обсуждаем — от генетики и эволюционной биологии до алхимии и даосизма — вполне соответствуют названию этого блога «Чорт ногу сломит», но выходят за рамки его формата и не концентрируются только на технологиях.

В первом эпизоде подкаста «bojemoi.идеи» мы обсуждаем идею свободы — через личный опыт и через концепции таких разных мыслителей как Патанджали, Альбер Камю, Уолтер Липпман, Шошана Зубофф и многих других.
Швейцарская компания FinalSpark построила компьютерный процессор на основе 16 минимозгов, выращенных из мозговых тканей человека. Ученые открыли онлайн-доступ к своему биокомпьютеру Neuroplatform и приглашают исследователей экспериментировать на их мозговых органоидах.

Мозговой органоид – это самоорганизующаяся трехмерная ткань, полученная из плюрипотентных стволовых клеток человека, которая способна имитировать архитектуру и функциональность человеческого мозга. В последнее время органоиды обрели особую популярность у ученых: в основном, выращивая мозговые ткани, они пытаются лучше изучить мозг и научиться бороться с его болезнями. А другие ученые пытаются превратить искусственные мозги в биопроцессоры.

Wetware вычисления и органоидный интеллект — это новые области исследований на стыке электрофизиологии и ИИ. Ученые хотят научиться использовать биологические нейронные сети для вычислений и запустить ИИ не на hardware, как это традиционно происходит сейчас, а на wetware – то есть на мозговых органоидах. Еще полгода назад я писал про американских исследователей, запустивших ИИ для распознавания речи на выращенном в лаборатории органоиде.

Самый продвинутый ИИ, вроде ChatGPT, работает на искусственных нейронных сетях — они называются так, потому что создавшие их ученые вдохновлялись биологическими нейросетями мозга. Хотя недавно светочи ИИ вроде Хассабиса, Суцкевера и Хинтона заявили, что ИИ-ученым больше нечему учиться у нейрофизиологов: мол, все полезное и так уже скопировали — но одна ключевая загадка так и осталась неразрешенной.

Биологическая нейросеть делает то же, что и искусственная, но потребляет в миллионы раз меньше электроэнергии. Человеческий мозг с 86 миллиардами нейронов использует в среднем 20 ватт энергии в сутки (как тусклая лампочка). А для тренировки GPT-3 понадобилось около 10 гигаватт энергии — примерно столько же энергии 6000 среднестатистических европейцев используют за 1 год.

Дальнейшее развитие ИИ упирается либо в радикальное увеличение выработки электроэнергии, либо же в радикальное уменьшение потребления энергии искусственными нейросетями. Швейцарский стартап FinalSpark своим Neuroplatform пытается радикально снизить потребление энергии ИИ и запустить искусственные нейросети на биологических.

У такого подхода есть серьезные препятствия. Во-первых, органоиды — это живые организмы с ограниченным жизненным циклом: органоиды FinalSpark сначала могли работать только несколько часов и со временем дошли до 100 дней. Во-вторых, в отличие от искусственных нейросетей, чью структуру легко поменять, изменив их код, биологические нейросети пока не поддаются такой прямой и быстрой модификации.

Не знаю, до какой степени ученые, работающие с мозговыми органоидами, вдохновлялись концепциями из «Матрицы», но параллели с культовым фильмом сразу приходят на ум. Впервые объясняя Нео Матрицу, Морфей говорит, что жадный до энергии ИИ превратил людей в батарейки. Ходят слухи, что изначально Вачовски хотели, чтобы ИИ использовал мозги людей как процессоры: тогда выходило бы, что виртуальная тюрьма для человечества работает в их же головах — но в Warner Brothers сказали, что это слишком сложно и настояли на концепте «человека-батарейки».

Человеческие мозги — удивительные устройства, на которых работает операционная система нашей цивилизации. Одновременная работа 8 миллиардов мозгов создает нашу коллективную реальность. Сейчас для нее настает такой период истории, где мы приближаемся одновременно к разгадкам тайны самого мозга и созданию ИИ (цифрового экстракта работы наших мозгов) — и к тотальной аннигиляции всех мозгов разом из-за реальной, как никогда, возможности мировой ядерной войны. Какую таблетку мы выберем?
Одно из классических определений войны гласит, что это “акт насилия, имеющий целью навязать нашу волю противнику”. Если учитывать, что акт насилия — это в том числе обман и манипуляция информацией, то получится, что хотя кинетические войны ведутся на ограниченных территориях, но весь мир находится в состоянии непрерывной информационной войны. В ней принимают участие громадные коллективы и отдельные люди, а поле боя такой войны — умы всех людей сразу, от граждан до президентов и генералов.

Пиар агентств и службы разведки работают по похожим принципам: они манипулируют информацией, чтобы навязать свою волю противоположной стороне — покупателям или врагам государства, неважно. Поэтому чем глубже вы будете погружаться в изучение государственной пропаганды, тем сложнее будет понять, о чем идет речь — о рекламе или о войне. Чтобы убедиться, что это — не преувеличение, советую изучить историю рекламы и пиара табачных компаний.

Информационная война в классическом понимании (как борьба государств в информационной сфере) обрела свой современный вид в 20 веке — веке горячих и холодных мировых войн. Одна из основных школ информационной войны, советская, перекочевала в РФ и сегодня служит концептуальной основой для проводимой путинским режимом гибридной войны. Ее основная теория — теория рефлексивного контроля советского, а затем американского математика Владимира Лефевра.

Лефевр определял рефлексивный контроль как процесс передачи оснований для принятия предопределенного решения одним персонажем другому — его “партнеру”. Это может быть информация о мире и обстановке, в которой разворачиваются события, о самом персонаже или о его восприятии партнера, о своей точке зрения на его точку зрения и так далее. Благодаря рефлексивному контролю мы можем знать, что думает объект нашей обработки — просто потому, что сами заложили в его голову эти мысли.

Если совсем упрощать, то рефлексивный контроль — это теория о том, как правильно врать врагу, чтобы ввести его в заблуждение и заставить на основе этой лжи принимать нужные вам решения. Или наоборот, сделать своим враньем так, чтобы другая сторона не приняла правильное решение. Лефевр и его последователи любят объяснять нюансы рефлексивного контроля на детских сказках и шалостях: например, шутка с привязанной на ниточке фальшивой купюрой, которую прохожий безуспешно пытается поднять, или сказка, в которой Кролик просит Лиса: «Делай со мной все, что угодно — только не бросай меня в терновый куст» — и, будучи брошенным в куст, убегает.

Так как Лефевр был одновременно психологом и математиком, его враки (точнее, варианты рефлексивного контроля) и понимание конфликтов выражаются математическими формулами. Математический подход к психологии людей, отношение к человеку как к информационному автомату, а к поведению людей — как к набору алгоритмов отражают советское увлечение кибернетикой, которой после смерти Сталина в научных кругах пытались заменить диалектический материализм. В этом смысле советские интеллектуалы вроде Лефевра близки по духу с американскими гиками вроде Марка Цукерберга: они воспринимают человека как математическую систему.

Сложно сказать, насколько глубоко военно-политическая верхушка РФ понимает теории математика Лефевра, но западные аналитики считают войну против Грузии в 2008 году и аннексию Крыма в 2014 успешными примерами операций с использованием методов рефлексивного контроля.

Фанатичное увлечение Кремля враньем и ложью ярко описал британский политик Бен Уоллес. В 2022 году, за 2 недели до полномасштабного вторжения в Украину, Уоллес в качестве министра обороны Великобритании прилетел в Москву на переговоры с военным руководством РФ. Уоллес пытался отговорить Шойгу и Герасимова начинать наступление на Украину, а в ответ слышал одновременно, и что наступления не будет, и что оно будет успешным. «Вранье русских — это демонстрация агрессии или силы: “Я тебе солгу. Ты знаешь, что я вру. Я знаю, что ты знаешь, что я вру. И я все равно буду продолжать тебе врать”».
«Человек — это нечто, что дóлжно превзойти», — писал Фридрих Ницше. Впервые я прочитал эту фразу, когда мне было 13 лет. Сначала она звучала как вызов, потом как императив, а впоследствии превратилась в самоочевидную истину.

В подростковом возрасте призыв превратиться из обычного в сверх-человека я понимал очень просто: так как слабости окружающих людей были очевидны, да и собственные недостатки, в принципе, тоже, достаточно не быть похожим на окружающих и каждый день становиться лучше, чем был вчера — и вот тебе движение к сверхчеловечности. В 15 лет было просто быть “не как все” и становиться лучше: поменьше играть в компьютерные игры, побольше заниматься спортом, читать умные книги, слушать необычную музыку и смотреть интеллектуальное кино.

К 20 годам стало очевидно, что недостаточно просто не быть похожим на окружающих и становиться ежедневно чуток лучше. Во-первых, мой кругозор капитально расширился и я осознал, что люди вообще-то бывают совсем разные, поэтому “непохожесть” на окружающих ничего принципиально не дает на пути к сверхчеловеческому. Во-вторых, ежедневное улучшение самого себя — коварное занятие, больше похожее на строительство песчаных замков на берегу волнующегося моря, чем на последовательное восхождение вверх по горе: сегодня ты лучше, а завтра хуже, и потом еще долго не особо меняешься. Что-то тут не так. Я начал понимать, что восхождение к сверхчеловеку, пожалуй, займет всю жизнь, и то не факт, что когда-то что-то реально поменяется. Сверхчеловек — это, скорее, вектор, направление мысли и образ действий, а не реальная цель.

Когда мне было 34 года, началась война и я столкнулся с “человеческим, слишком человеческим” в себе и в окружающем мире. Я наконец на самом деле понял, зачем нужно превосходить в себе человеческое: потому что человеческое во всей красе — это очень темное, жестокое и мрачное явление. Светлые стороны человеческого — помощь, дружба, любовь на фоне катастроф — не уравновесили для меня темные, но без этих светлых мы бы уже перестали существовать. Я совсем перестал думать о “сверхчеловеке” как о чем-то ницшеанском и стал воспринимать эту концепцию как императив, единственный путь спасения людей в принципе: или мы все радикально трансформируемся, или скоро умрем.

В новом выпуске подкаста bojemoi.идеи мы с Травкиной подробно обсуждаем, как концепция сверхчеловека поменяла наши жизни, конструктив и деструктив стараний превзойти человеческую натуру, а также искусственный интеллект и инопланетян. Подписывайтесь по ссылке на наш ютьюб-канал, чтобы помочь нам развивать новый медиум!
Выборы в Европе стали триумфом для консервативных и крайне правых сил и провалом для устоявшегося демократического истеблишмента. Во Франции правые во главе с Марин Ле Пен набрали в два раза больше голосов, чем партия действующего президента Макрона, а в Германии партия действующего канцлера Шольца заняла третье место, уступив второе правой Альтернативе для Германии. Думаю, такая же картина ждет нас в ноябре в США, где правый республиканец Дональд Трамп, согласно опросам, уже выигрывает у демократа Джо Байдена во всех колеблющихся штатах.

С моей точки зрения, главная проблема демократических сил в мире в том, что они безнадежно погрязли в virtue signalling — ханжеской и неискренней демонстрации добродетелей. Кембриджский словарь определяет virtue signalling как «попытку показать другим людям, что вы хороший человек, через выражение приемлемых для них мнений, особенно в социальных сетях» и как «демонстрация добродетели через выражение отвращения или одобрения в адрес определенных политических идей и культурных событий».

Virtue signalling — разновидность популизма, который является основой современной политики и выступает «за все хорошее, против всего плохого». Однако особенность демократического популизма в том, что он пытается быть полностью и целиком «хорошим»: делает вид, что у него нет и не может быть тени, что он просто неспособен на плохие поступки, что он безупречный герой, в котором совершенно отсутствует зло.

Более того, все, что дем-популист объявляет злом, становится злом абсолютным и неисправимым. Из этого следует, что дем-популисты до последнего боятся объявлять что-либо злом, потому что потом дороги назад не будет, а уж если объявляют, то загоняют в себя непримиримый антагонизм, из которого часто невозможно выбраться. Яркий пример такого подхода – Хилари Клинтон, которая на выборах 2016 года назвала «корзиной отбросов» всех избирателей Трампа, то есть половину США, отрезав себе возможность для диалога с ними — и проиграла выборы.

Демократический популизм принципиально отличается от правого популизма, который не скрывает своих темных сторон и пытается соблюдать баланс между virtue signalling и vice signalling (демонстрацией пороков). Правый популист не скрывает, что собирается совершать нелицеприятные, жестокие поступки, потому что это все “во благо народа” — эта позиция контрастирует с обещаниями дем-популистов добиться своего “блага для народа”, но только хорошими, светлыми мерами. Врут и те, и другие, но вранье правых популистов в эпоху соцсетей кажется неопределившимся избирателям более правдоподобным.

Примечательно, что правые популисты уже почти 10 лет выигрывают у дем-популистов войну мемов. Легендарный комик Ларри Дэвид объясняет успех своих шоу «Seinfeld» и «Curb Your Enthusiasm» (того самого, который Directed by Robert B. Weide) тем, что хорошие мысли — не смешные, а юмор рождается там, где его герой высказывает плохие мысли, которые крутятся у всех нас в голове, но которые мы держим при себе, потому что их не принято выражать. К слову, Ларри Дэвид — демократ, неоднократно высмеивавший своих единомышленников за тот самый virtue signalling.

Демонстрация добродетели и ханжество демократических популистов — не смешное, а печальное зрелище. Их непоследовательная, чересчур аккуратная и безумно медленная помощь Украине — это ханжество и крайне убийственное лицемерие. Тревожно от того, что принесут правые популисты — они не обещают ничего хорошего и слишком заигрывают с фашизмом, так и заиграться можно. Но совсем не жаль, что такие политики, как Шольц и Макрон, уходят в небытие.
Apple заключила союз с OpenAI, в результате которого мультимодальный ИИ ChatGPT должен появиться на каждом айфоне и оживить работу яблочного виртуального помощника Siri. Технические детали этого союза пока не вполне ясны, но сам факт такого сотрудничества вызвал много негатива.

Первым делом проклятиями разразился Илон Маск: он написал, что запретит сотрудникам пользоваться яблочными девайсами на работе, а у посетителей его предприятий будут изымать айфоны на входе и помещать их в ящик Фарадея. С точки зрения Маска, CEO OpenAI Сэм Альтман просто развел CEO Apple Тима Кука: яблочные инженеры якобы не смогут контролировать, что будет происходить с пользовательскими данными на серверах OpenAI, потому что сами не понимают, как работает ИИ Альтмана — на языке политики такой союз назвали бы потерей технологического суверенитета.

В технологическом смысле Apple действительно капитально просели: у одной из самых богатых технокорпораций не хватило ресурсов на разработку собственного мультимодального ИИ, и поэтому они запустили в свое (и наше) хозяйство чужаков. Кто-то называет Тима Кука «создателем королей», подразумевая что ИИ-компания, которую Apple запустит в 2 миллиарда яблочных устройств, получит решающее преимущество в развитии мультимодального ИИ. Другие говорят, что Apple из топ-инноватора превратился в очередную «обертку для ChatGPT».

Все это происходит на фоне финансовых проблем Apple: падают продажи всех яблочных продуктов, и главное, айфонов, на которые приходится почти половина дохода компании. Самые преданные и крупные инвесторы компании теряют веру в ее будущее: Уоррен Баффет, когда-то говорил, что лучше продать свою машину, чем акции Apple, за последние полгода продал больше 100 миллионов акций яблочной компании из своего портфеля. Когда Тим Кук на презентации впервые произнес фразу «Apple Intelligence» (вместо просто ИИ), стоимость компании за 30 секунд увеличилась на $17 миллиардов и сейчас находится на историческом пике своей стоимости — и все же будущее компании кажется мрачным как никогда.

Союз Apple c OpenAI — вынужденная мера, чтобы не отстать от Microsoft, Meta и Google в ИИ-гонке. Одно из главных негативных последствий ИИ-лихорадки техногигантов — полное пренебрежение безопасностью и приватностью пользователей. Технокорпорации перешли в режим турбо-лицемерия и пытаются под видом заботы об удобстве пользователей еще интенсивнее высасывать их данные, необходимые для развития ИИ. Это понимают специалисты и начинают понимать пользователи: например, недавняя идея Microsoft записывать все, что происходит на компьютере якобы для нашего же удобства, ожидаемо обернулась пиар-катастрофой, и компания отказалась от идеи внедрения такой функции на всех устройствах.

Причина опасной и недружелюбной по отношению к пользователю ИИ-лихорадки одна: это компания OpenAI и лично Сэм Альтман. В конце 2022 года OpenAI выпустила ChatGPT и показала миру настоящий потенциал искусственного интеллекта. У нас нет оснований не верить Альтману, когда он утверждает, что в ближайшие годы его компания создаст AGI — сильный и универсальный ИИ, превосходящий интеллект человека. Но для создания AGI у него не хватает ресурсов: ему нужна инфраструктура техногигантов вроде Microsoft и Apple.

Проблема в том, что Альтман воплощает сформулированную когда-то Марком Цукербергом стратегию «Move fast and break things» — поэтому он сам, его партнеры и их конкуренты действуют безрассудно и не обращают внимания на угрозы от своих действий. Непродуманное и тотальное внедрение мультимодального ИИ на все компьютерные устройства мира чревато созданием всевидящих и всезнающих ИИ-надзирателей. Такое нарушение приватности и пренебрежение к безопасности миллиардов пользователей в мире, который стоит на пороге очередной мировой войны и все больше тяготеет к фашизму — самоубийственная тактика.
Мысль о том, что ИИ лишит нас работы, стала уже привычной, хотя и не вполне злободневной — такая перспектива маячит где-то в будущем, но пока не касается большинства работающих людей.

Cоучредитель OpenAI и член совета директоров Microsoft Рид Хоффман считает, что мы стоим на пороге «когнитивной промышленной революции», а ИИ — это аналог парового двигателя для ума. «Благодаря тому, что паровой двигатель создал машины, более мощные и мобильные, чем водяные мельницы, у нас появились физические сверхспособности в сфере производства, строительства и транспортировки. Сейчас то же самое происходит в сфере когнитивных способностей и всего, что мы делаем с использованием языка, будь то общение, рассуждения, анализ, продажи, маркетинг, поддержка или услуги», — говорит Хоффман.

Хоффман — также создатель бизнес-соцсети LinkedIn, так что он отлично разбирается в рынках труда и понимает, как они изменятся под воздействием ИИ. Однако его акцент на когнитивный характер ИИ-революции скрывает вторую часть уравнения — революцию роботов.

OpenAI, Microsoft и Google этой весной показали, как ключевые открытия в сфере ИИ — большие языковые модели (LLM), синтез речи и компьютерное зрение — воплощаются в мультимодальных ИИ-агентов, которые умеют читать и писать, говорить и понимать нашу речь, а также видеть и создавать картинки с видео. Эти мультимодальные нейросети живут на компьютерах и смартфонах, чьи камеры и микрофоны работают как их глаза и уши и позволяют им познавать окружающий мир. Но конечное назначение этих мультимодальных нейросетей — не наши устройства, а самостоятельные механические оболочки.

Языковые модели (LLM), вроде GPT-3, были натренированны на громадных массивах текста и умеют почти все, что связано со словами. Следующим шагом стали модели зрения-языка(vision-language models или VLM), натренированные на статичных и динамичных изображениях, снабженных текстовым описанием: благодаря им ИИ может ответить, что он видит на фотографии или видео, а также сгенерировать визуальный ряд на основе наших текстовых запросов.

Венцом этого направления ИИ-мысли стали модели зрения-языка-действия (vision-language-action models или VLAMs), позволившие нейросетям обрести тело: кроме визуальной и текстовой информации они обрабатывают также информацию о физических данных робота — его внутренних сенсорах, положении его конечностей и т.д. Такие модели позволяют роботу не только читать, говорить и “понимать”, что он видит перед собой, но и ориентироваться и перемещаться в пространстве.

Принципиальные ограничения VLAM-нейросетей — небольшой набор известных им движений и высокие требования к вычислительным мощностям, необходимым для их работы. Сейчас “мозги” продвинутых роботов, просчитывающих их движения, находятся в облачных дата-центрах, и предстоит так оптимизировать их код, чтобы они работали на чипах внутри самого робота. Также ученые работают над созданием “библиотек движений”, для чего им часто приходится управлять роботами, как кукловодам: вручную, совершая одни и те же действия по много раз — прорыв в этой сфере наступит, когда роботы смогут учиться движениям людей по видео c условного ютуба.

OpenAI, Microsoft, Amazon, Google, Tesla — все эти техногиганты либо сами производят роботов, либо активно инвестируют в десятки стартапов, специализирующихся на производстве роботов. Робо-революция уже началась, ее запустила революция в сфере ИИ — это как две ноги единого искусственного организма, которого человечество уже не может не создать.

Рынок труда скоро изменится до неузнаваемости. Ключевой вопрос в том, как нам, людям, не превратиться в «бесполезный класс»?
Я никогда не верил в tabula rasa, теорию чистого листа, утверждающую, что человек появляется на свет “никаким” и воспитанием его можно сделать каким-угодно. Конечно, воспитание и обстоятельства жизни формируют нас, но все же мы приходим в этот мир уже какими-то и все последующие влияния и воздействия ложатся на этот уникальный паттерн нашей личности.

Самое простое доказательство того, что каждый из нас — уникальная личность, пришло ко мне не из философии, а то ли из математики, то ли из физики: каждый из нас уникален уже потому, что занимает уникальное место в пространстве. В подростковом возрасте эта мысль стала хорошим дополнением для мысли о том, что все мы — отнюдь «не красивые уникальные снежинки, а такая же разлагающаяся материя, как все остальное вокруг».

Много лет спустя я слушал лекции Роберта Сапольски по биологии поведения человека, и мысль про уникальность каждого из нас дополнилась изящной иллюстрацией на примере однояйцевых близнецов. В момент зачатия однояйцевые близнецы генетически идентичны, так как формируются из одного сперматозоида и одной яйцеклетки, но, как только они разделяются, начинается их уникальный жизненный путь в пространстве материнской утробы — и через девять месяцев на свет появляются очень похожие, но разные люди. Дальнейшее воспитание в одной семье, одном доме и одной школе еще сильнее разводит некогда идентичных близнецов и сделает их все более непохожими друг на друга — нюансы личного опыта имеют определяющее значение.

Среда начинает влиять на каждого из нас в материнской утробе и не перестает воздействовать на наше тело и его останки даже после нашей смерти. Каждый путь от утробы до могилы — уникален. Я уверен, что на этом пути каждому из нас следует разобраться в том, что в нашей личности уникально наше, а что — продукт воздействия среды. Разобравшись в этом, мы сможем построить по-настоящему уникальную жизнь.

В третьем выпуске подкаста bojemoi.идеи мы с Травкиной разбираем взаимодействие генов и среды в наших жизнях, обсуждаем бихевиоризм, евгенику и соцсети, а также рассуждаем о том, как можно менять себя, меняя свою среду. Подписывайтесь по ссылке на наш ютьюб-канал, чтобы помочь нам развивать новый медиум!
Любая пропаганда работает с информацией с точки зрения сигнала и шума: она либо усиливает нужный ей сигнал, чтобы информация засела в голову обрабатываемой аудитории, либо подавляет ненужный ей сигнал, превращая его в информационный шум, влетающий в одно ухо и сразу же вылетающий через другое.

Пропаганда усиливает такой информационный сигнал, который либо нанесет максимальный ущерб противнику — дискредитирует его, подвергнет сомнению, сконфузит, либо принесет максимальную пользу самому пропагандисту — нормализует, легитимизирует или возвеличит его. 

Конечно, в идеале пропагандистская деятельность должна одновременно вредить врагу и приносить пользу пропагандисту, ведь в конечном итоге вред, нанесенный врагу, — это и есть польза для пропагандиста. Однако изощренная пропаганда часто неочевидна, а пропагандист часто прибегает к вредным, на первый взгляд, для него самого тезисам, потому что они еще более вредны для его оппонента — и значит в итоге полезны для него. 

Это часто приводит к тому, что пропагандисты критикуют своих оппонентов за то, что делают сами, или промотируют идеалы, которым сами не следуют, только для того, чтобы подчеркнуть, что им не следует их оппонент. Казалось бы, в эпоху интернета и информационной прозрачности пропаганде должно быть сложнее, так как ее можно уличить во вранье, в двойных стандартах и лицемерии — однако это не так по ряду причин.

Во-первых, в эпоху информационного перегруза, само разоблачение пропагандистов становится очередным информационным сигналом, который они успешно глушат, превращая разоблачение их деятельности в инфо-шум. Более того, разоблачение пропаганды почти всегда скучнее, чем сам пропагандистский мессадж, и люди склонны запоминать более яркие вещи, а не правду. Успешная пропаганда чаще всего потакает предрассудкам людей, и если опровержение пропаганды опровергает и предрассудок — о нем скоро забудут.

Во-вторых, в отличие от эпохи телевидения, информационное пространство крайне сегментировано и разбито на информационные пузыри, не пересекающиеся между собой. Такая сегментированность позволяет пропаганде распространять совершенно разные, даже противоречивые послания, потому что жители пузырей почти не пересекаются друг с другом и потому не могут обсудить эти противоречия. 

В-третьих, современная пропаганда использует силу Анонимуса: они создают тысячи фейковых аккаунтов и виртуальных личностей, от чьего имени и ведут пропаганду. В итоге атрибутировать пропагандистские посылы одному актору становится крайне сложно — это могут сделать разве что владельцы социальных сетей и узко-специализированные компании.

Ну и в-четвертых, пропагандисты принципиально беспринципны и воспринимают всю информацию как оружие и инструмент. Беспринципность позволяет исходить из текущих информационных нужд, без оглядки на правила и законы, в том числе законы логики: любой аргумент, любой довод годится, если он достаточно яркий и может нанести вред врагу сейчас — противоречия забудутся, а вред останется.
Пропаганда принципиально беспринципна, поэтому она может использовать любые аргументы и усиливать любые информационные сигналы, если они служат ее текущим интересам. Благодаря этому пропаганда может работать на всем политическом спектре, отстаивать любые точки зрения и даже спорить с самой собой.

Одно из ключевых правил пропаганды – развивать уже существующие в обществе тенденции и разжигать реальные социальные противоречия. Беглый агент КГБ Юрий Безменов в 80-х сравнивал этот принцип пропаганды с боевым искусством дзюдо: «Вы подхватываете кулак противника и продолжаете его движение в изначальном направлении до тех пор, пока он не врежется в стенку… Мы не останавливаем врага — мы его отпускаем и помогаем ему двигаться в нужном нам направлении».

Давайте рассмотрим этот принцип на хрестоматийном кейсе пропаганды 21 века — российском вмешательстве в выборы президента США в 2016 и 2020 годах.

Большая часть российских троллей в 2016 и 2020 году были сконцентрированы на проблеме расизма в США, полицейского насилия в адрес афро-американцев и поддержке движения BlackLivesMatter (BLM). Если в 2016 году на этих направлениях работали пригожинские тролли из Петербурга, то в 2020 к кампании подключали также троллей из Ганны и Нигерии. Они выдавали себя за афроамериканцев из разных штатов США: кто-то говорил, что его самого побили полицейские, кто-то – что его черных друзей забрали в участок за “неправильную” одежду, кто-то говорил, что он – брат афроамериканца, убитого копами в тюрьме. Их целью было разжигание расовой вражды, возбуждение протестных настроений, накручивание негатива против полиции.

После победы Дональда Трампа на выборах 2016 года в российской Думе пили шампанское, чтобы подчеркнуть, что выиграл якобы “российский” кандидат. При этом разжигание проблемы расизма в США, которым в 2016-2020 занимались рос-тролли, играло на руку отнюдь не консерватору Трампу — во многом благодаря протестам BLM в 2020 году его и победил демократ Джо Байден. Кроме того, в 2016 году рос-тролли атаковали и Трампа, прикидываясь феминистками, защитниками прав ЛГБТ и экологии.

И все же в 2016 году тролли максимально активно атаковали именно Хиллари Клинтон, причем сразу с двух сторон: со стороны правых ее обвиняли в том, что она чересчур либеральна, поддерживает ЛГБГ и нелегальных мигрантов, а со стороны левых — что она недостаточно либеральна и плохо относится к черным и бедным. Эта тактика повторилась и на выборах 2020, уже против Байдена. Более того, на выборах в 20-ом году к рос-троллям, поддерживавшим BLM, добавилась официальная рос-пропаганда в США, открыто критиковавшая это же протестное движение.

Накануне выборов 2020 российские тролли добавили в арсенал тему мнимой угрозы от 5g. Подпольным рос-троллям вторили официальные пропагандисты с канала RT, утверждая, что сигнал 5G вызывает рак мозга, бесплодие, аутизм, болезнь Альцгеймера и т.д. — при этом Путин в то же время публично поддерживал запуск сети 5g в России. Этот рос-троллинг впоследствии воспринимался как элемент экономической войны: он помешал развитию коммуникативных технологий в США, а также сыграл и против китайских союзников РФ, которые были на тот момент лидерами в сфере 5g и собирались устанавливать его в США.

Другой яркий пример работы рос-троллей — поддержка антиваксерского движения в США. Накануне выборов 2020 тролли активно разжигали споры сторонников и противников вакцинации (вторые считали, что прививки от кори вызывают аутизм). Хотя такая пропаганда не продвигала конкретного кандидата в президенты, она усугубляла раскол американского общества, впоследствии усилившийся во время пандемии и споров о прививках против ковида. К слову, сейчас мы знаем, что и американские спецслужбы распространяли антиваксерскую риторику — но на другом конце света: на Филиппинах — и против китайских вакцин.

Во время пандемии большинству людей было не до пропаганды, но именно пандемия стала одним из самых масштабных этапов пропагандистских войн в 21 веке.
Илья Суцкевер, один из ключевых ИИ-ученых и предпринимателей нашего времени, вчера объявил об основании нового ИИ-стартапа под названием Safe Superintelligence Inc (SSI).

Как ученый Суцкевер известен своими научными работами по нейросетям и тем, что раньше всех в индустрии (в середине 2010х) поверил, что прорыв в сфере ИИ произойдет за счет увеличения инвестиций в уже существующие технологии: больше данных и вычислительных мощностей, тогда количество перерастет в качество и мы прийдем к сильному ИИ (AGI). Сегодня этот подход – главный двигатель ИИ-революции, но 10 лет назад в эту концепцию почти никто не верил и тем более не хотел вкладывать миллиарды долларов в проверку такой гипотезы.

В 2015 году Суцкевер вместе с Сэмом Альтманом на деньги Илона Маска основал OpenAI — ключевую ИИ-компанию нашего времени. За привлечение дополнительных финансов в стартап отвечал Альтман, а Суцкевер был ученым-суперзвездой, который привлекал в компанию других ученых и заражал всех идеей построения AGI.

В ноябре 2023 Суцкевер устроил в OpenAI переворот и выгнал Сэма Альтмана с поста CEO компании, правда, всего на пару дней. Одна из предполагаемых причин неудавшегося переворота — претензия Суцкевера к Альтману, что тот слишком увлекся коммерциализацией ИИ и недостаточно серьезно относится к безопасности создаваемой OpenAI супер-технологии.

На полгода после переворота Суцкевер исчез из публичного пространства и продолжал работать в OpenAI, но месяц назад ушел оттуда и теперь основал компанию с примечательным названием Safe Superintelligence Inc (SSI). Сразу бросается в глаза слово Superintelligence: если официальная миссия OpenAI заключается в создании сильного ИИ (AGI), способного в любой сфере деятельности преуспеть на уровне человека, то новый стартап Ильи сразу ставит задачу создать супер-интеллект (ASI), превосходящий человека во всем.

Сегодня ученые не уверены, получится ли в принципе создать сильный ИИ (AGI) — ведь для этого ИИ нужно научить полноценно мыслить, а это пока ни у кого не вышло. К слову, большинство опасений о тотальной потере людьми рабочих мест и общественных катаклизмах исходят из теоретической перспективы создания AGI — поэтому безопасности этой гипотетической технологии уделяется так много внимания. Суцкевер же хочет создать сразу суперинтеллект (по определению способный обмануть более глупых людей), и сделать его сразу безопасным. «Безопасным, как в ядерной безопасности», — говорит Суцкевер.

Safe Superintelligence Inc – крайне закрытый проект, который, по словам Суцкевера, будет «полностью изолирован от внешнего давления» и «необходимости участвовать в конкурентных крысиных бегах». Кто и сколько денег дает на SSI, пока неизвестно, так же как не известно, как долго этот проект будет убыточным и не упрется ли упрямый ученый в научный тупик. Однако сама цель в виде Суперинтеллекта и претензия на его «безопасность, как в ядерной безопасности» напомнили мне слова другого ИИ-гуру Эрика Шмидта.

Шмидт считает, что постепенно ИИ системы разделятся на два типа: обычные, доступные широкой публике, — и супер-системы, подконтрольные только избранным представителям человечества. «В конце концов, в США и Китае появится небольшое количество чрезвычайно мощных компьютеров, способных самостоятельно совершать такие открытия, которыми мы, как нация, если и захотим делиться с собственными гражданами или с конкурентами — то только с нашего разрешения. Эти компьютеры будут находиться на военных базах, они будут питаться собственными атомными электростанциями, а вокруг них будет натянута колючая проволока и расставлены пулеметы».

Даже не знаю, желать ли Суцкеверу успехов?
«В чем смысл жизни?» — один из ключевых философских вопросов во все времена. Не задаваться этим вопросом — скучно, а чересчур переживать по его поводу — опасно. Меня он беспокоит с детства, и то, как я на него отвечал на разных этапах своей жизни, определяло эту самую жизнь больше, чем что-либо другое.

Ответ на этот вопрос я искал много где. Например, христиане, мусульмане, иудеи и индуисты утверждали, что смысл жизни — в сознательном поклонении божеству, а как именно это нужно делать, каждая религия видела по-своему. Мне такой ответ никогда не подходил, хотя я понимал его прелесть: порядок, простота и однозначность. От них я взял понимание, что смысл жизни как-то связан со следованием принципам и реализацией этих принципов – с этим я согласен до сих пор.

Более близкие мне буддисты, даосы и йогины, древнегреческие философы и стоики считали, что смысл жизни — в самосовершенствовании. Этот ответ мне до сих пор кажется одним из самых верных, так как он, с одной стороны, культивирует конструктивное отношение к самому себе, а с другой – оставляет много пространства для творчества. От этих учений я взял понимание, что некоторые практики помогают приблизиться к ответу на вечный вопрос — чтение, глубокое размышление и медитация навсегда стали частью моей жизни.

Нигилизм и экзистенциальная философия убедительно объяснили мне, что у жизни нет никакого смысла. Эта мысль многим портит настроение и ощущения от бытия, но лично меня она освободила и научила проще относиться к себе и своим проблемам, дала нижнюю точку отсчета: если все предельно бессмысленно, то можно наполнять свою жизнь любым смыслом, — whatever works.

Самый личный и наиболее удовлетворяющий меня ответ звучит так: смысл жизни — в реализации своего потенциала. Этот ответ состоит из двух частей: во-первых, нужно познать себя и понять, в чем же заключается твой потенциал, а во-вторых — его нужно реализовать и поделиться его плодами с людьми. Конечно, можно сказать, что такой ответ только умножает вопросы, но мне кажется, что так и должно быть. Потому что один финальный ответ человек получает только в случае смерти, а пока он жив, его удел — искать.

В четвертом выпуске подкаста bojemoi.идеи мы с Травкиной разбираем эволюцию вопроса о смысле жизни в наших личных историях, а также рассматриваем его с точки зрения социума, эволюции, религии, мотивации, творчества и нейробиологии. Подписывайтесь по ссылке на наш ютьюб-канал, чтобы помочь нам развивать новый медиум!
Энергия ИИ

Искусственный интеллект работает благодаря трем основным компонентам:
данным, алгоритмам и вычислительным мощностям.

Интернет стал золотой жилой в плане данных, необходимых для воспитания ИИ: продукты вроде ChatGPT выросли из триллионов слов, написанных онлайн-пользователями со всего мира. Эти данные превратились в говорящий ИИ благодаря алгоритмам, которые придумали ученые и накодили программисты. И все это работает благодаря микрочипам, которые создали и собрали в большие суперкомпьютеры инженеры.

Nvidia — корпорация, создающая самые мощные и популярные ИИ-чипы, на волне ИИ-хайпа стала одной из самых дорогих компаний в мире: ее стоимость перевалила за 3 триллиона долларов (это больше, чем ВВП РФ). Для тренировки и работы современных ИИ-систем вроде ChatGPT нужны тысячи чипов Nvidia. В 2020 году для тренировки GPT-3 был построен суперкомпьютер с 10 000 передовых на тот момент чипов, в 2023 для GPT-4 понадобилось уже 14 400 чипов H100 от Nvidia, а для следующего шага уже разрабатывается система в 30 раз мощнее.

Суперкомпьютеры, на которых тренируется и затем работает ИИ, располагаются в дата-центрах, где также хранятся тренировочные и операционные данные нейросетей. С каждым месяцем ИИ становится все более развитым, и требования к дата-центрам растут, поэтому по всему миру строятся сотни новых, все более крупных дата-центров. Nvidia и ее менее успешные конкуренты не справляются с производством чипов для них, так что ИИ-компании выстраиваются за ними в очередь на месяцы вперед. Но это — только одна часть ИИ-дилеммы.

Для работы суперкомпьютеров, дата-центров и дальнейшего развития ИИ нужно невероятно много электричества — настолько много, что человечество просто физически не способно произвести и распределить такое количество. Чем развитее ИИ, тем больше нужен дата-центр — поэтому парочка строящихся сейчас дата-центров будет потреблять столько же энергии, сколько сейчас потребляют все запущенные с 2019 вместе взятые.

Многие уже построенные дата-центры сейчас простаивают без дела, так как ждут свою очередь для подключения к электросети: даже если генерации электричества хватает, для его распределения нужно строить дополнительную инфраструктуру, что может занимать несколько лет. Уже подключенным дата-центрам время от времени приходится переживать веерные отключения: руководству городов, в которых они расположены, приходится выбирать, кому давать электричество — ИИ или гражданам.

Недавно я писал о мечтах Марка Цукерберга построить дата-центр, который будет потреблять сразу гигаватт энергии — что примерно равно генерации одного ядерного реактора. ИИ-корпорации вроде Meta, Google и Microsoft мечтают о тераваттах доступной зеленой энергии. И хотя ветряная и солнечная энергетика развиваются довольно быстро, они даже примерно не покрывают нужд ИИ — поэтому техноолигархи вроде Цукерберга и Маска в последнее время стали лоббистами именно атомной энергетики. Но пока не хватает зеленой энергии, ИИ использует и “грязную” энергетику: нефть, газ и даже уголь.

В таком контексте мне еще больше кажется, что война РФ против Украины — это прообраз всех будущих войн, не только из-за активного использования дронов, а из-за постоянных атак на энергетику. Чем сильнее будет развиваться ИИ и чем сильнее страны будут на него полагаться, тем болезненнее будут атаки на энергетику с использованием точечных ударов гиперзвуковыми ракетами или новейшим оружием — например, лазерами из космоса. В этом контексте техноолигархи, многие из которых так боятся ядерных бомб, кажется, не учитывают, что в мирное время безопасные атомные станции в контексте войны могут обернуться катастрофами.
Тезис «ИИ знает человека лучше, чем он сам себя знает» циркулирует в нашей культуре уже почти 10 лет и с каждым следующим шагом ИИ приобретает все более тотальное значение.

В начале 2000х Google стала первой ИИ-компанией, которая построила бизнес на беспрецедентных знаниях о своих пользователях. Чтобы всегда корректно отвечать на криво сформулированные поисковые запросы пользователей, Google нужно было знать, что за человек вводит этот запрос, что ему на самом деле нужно. Тогдашний CEO компании Эрик Шмидт говорил, что они «более или менее знают, о чем вы думаете», чтобы выдавать «релевантный результат». А также продавать компаниям рекламные места на экранах самых релевантных пользователей.

В 2010х Facebook тоже строил свою бизнес модель на знаниях о пользователе: собирая информацию о нас, алгоритм умной ленты подбирал под каждого из нас контент, помещая нас в личные информационные пузыри. Персонализированный контент позволял максимально вовлекать людей в пользование соцсетью, что в свою очередь позволяло показать ему как можно больше релевантной для него рекламы, за которую Facebook получали деньги.

Google и Facebook почти 20 лет были самыми успешными ИИ-бизнесами в истории. Их нейросети знали о каждом из нас так много, что в начале 2020х стала расхожей фраза «ИИ знает нас лучше, чем мы сами». Они и сегодня остаются в топе самых успешных бизнесов, так как их рекламный ИИ продолжает приносить многомиллиардные доходы. Но сам ИИ-бизнес сильно меняется.

Самая горячая ИИ-компания 2020х — OpenAI, а ее главный продукт — говорящий ИИ ChatGPT. Для его создания инженеры OpenAI совершенно бесплатно взяли все произведенные пользователями слова и изображения и превратили их в некое подобие цифрового сознания: мы невольно стали информационными донорами для ИИ, а он стал олицетворением всех человеческих знаний — целым, которое превосходит сумму его частей.

Раньше Facebook и Google использовал ИИ, чтобы соединить человека с информацией или услугами, произведенными другими людьми. Теперь ИИ сам становится производителем информации и услуг и грозится сделать большинство людей «бесполезным классом».

Несмотря на сотни миллиардов долларов, которые технокорпорации вливают в создание современных генеративных ИИ-систем вроде ChatGPT, никто пока не смог извлечь из них прибыль, хотя бы примерно сопоставимую с той, которую Facebook и Google продолжают получать от рекламного ИИ. Нам всем нравится разговаривать с ChatGPT, Claude или Gemini, но все они — по сути убыточные продукты, которые в нынешнем виде не могут стать реальными драйверами обещанной ИИ-революции.

ИИ-корпорации ищут реального прорыва, и в поисках коммерческой выгоды готовы ставить на разные варианты развития технологии, в том числе на рискованные. Одна из самых перспективных и рисковых моделей — персонализированные ИИ-системы, которые будут знать о нас все, потому что будут следить за каждым нашим словом и действием. Кто-то называет такой ИИ “вторым пилотом”, кто-то — личным помощником. Яиногда называю его личным ИИ-надзирателем.

Сначала такой ИИ сможет заказывать за вас такси и доставку еды, самостоятельно делать звонки и договариваться о встречах, выбирать подарки для друзей и заполнять налоговые декларации. Коммерческий успех такого продукта очевиден: корпорации, которые будут технически содержать личный ИИ пользователей, найдут тысячу способов, как напичкать его платной рекламой всех видов.

Конечно, за такого личного ассистента придется платить деньгами, личными данными, а в некоторых обществах — и личной свободой. Представьте личный ИИ не в роли помощника, а в роли надзирателя, приставленного к вам авторитарным правительством — это даст такой контроль над населением, о котором во всяких Древних Египтах и других рабовладельческих обществах и мечтать не могли.
Одной из главных книг в моей жизни оказалась вышедшая в 2006 году автобиография Дэвида Линча под названием «Поймать большую рыбу». Хотя Линч, мягко говоря, не мыслитель, в этой книге я нашел простое и понятное выражение творческой философии, которой я в 19 лет интуитивно пытался следовать. За взрослую жизнь я сменил не одно поле деятельности, но два ключевых принципа, почерпнутых из этой книги, никогда не менял, вне зависимости от того, чем занимался.

1) Если ты решил стать художником, то твое творчество должно всегда быть на первом месте, а все остальное в жизни — на втором, подчиненном творчеству. Творчество требует много времени и сил, поэтому у художника нет выходных и он с легкостью жертвует всем, что мешает ему заниматься своим делом. Деньги, слава, личное благополучие — все это вторично, потому что все это приходит, только если художник полностью отдается своему делу.

В зависимости от человека, такой подход может привести как к выдающимся результатам, так и к нервным срывам, депрессиям и тотальному разочарованию в себе и жизни. Много лет спустя я обнаружил точно такую же философию почти у всех выдающихся предпринимателей из Кремниевой долины, так что она подходит к любой сфере деятельности — это, скорее, образ мыслей, чем набор четких правил.

2) Суть творчества — реализация творческих идей. Линч сравнивает идеи с рыбами: они водятся в водоеме, расположенном внутри самого художника, и чтобы их словить, нужно иметь такое намерение и запастись терпением. Линч был сконцентрирован на ловле идей для кино, музыки и картин, но в том же “океане неограниченной креативности” водятся идеи для стартапов, книг, строений и всех остальных творческих задач.

После того, как рыбка-идея поймана и у человека возникло понимание того, что он хочет сделать, начинается более понятная часть: человек максимально точно должен воплотить эту идею в материальном мире. Чем четче и старательнее он воплощает пойманные идеи, тем глубже овладевает ремеслом и после многих лет практики он становится мастером.

В пятом эпизоде подкаста bojemoi.идеи мы с Травкиной разбираемся, как с возрастом менялось наше понимание творчества и роли художника, обсуждаем искусство в целом и наш совместный творческий путь.
В дебатах Трампа и Байдена не выиграл никто, зато проиграли все американцы и весь демократический мир.

В США прошли первые президентские дебаты между действующим президентом демократом Джо Байденом и предыдущим президентом республиканцем Дональдом Трампом. Подавляющее большинство зрителей этих дебатов считает, что Байден с треском провалил дебаты и убедительно продемонстрировал свои когнитивные нарушения.

Даже до дебатов всего 35% избирателей считали, что у Байдена хватает ментальной прыти, чтобы и дальше быть президентом, а после дебатов так думает только 27%. До дебатов 37% думали, что Байден должен баллотироваться на новый срок — после так считает 28%. В целом 7 из 10 избирателей убеждены, что когнитивное здоровье Байдена не позволяет ему быть президентом самой сильной страны в мире.

Многие хардкорные сторонники Байдена, в том числе основные демократические издания (вроде NY Times и Atlantic), пребывают в отчаянии и считают, что Байдена нужно заменить на другого кандидата, у которого будут шансы победить Трампа. Однако такую замену не поддерживает его семья и два бывших президента от демократов — Билл Клинтон и Барак Обама. До выборов остается четыре месяца.

В этой ситуации меня больше всего поражает объем лжи, бессмысленной и беспощадной. Когнитивное увядание 81-летнего президента Байдена давно бросалось в глаза на видео: то он “зависал” и выглядел дезориентированным на публичных мероприятиях, то пожимал руку пустому месту, падал на ровном месте и так далее. Однако сторонники Байдена утверждали, что все дело в манипулятивном монтаже, а старейшины демократической партии настаивали: «в плане интеллекта и аналитики Байден силен, как никогда», у него “очень острый ум”, а сомнения в этой остроте — «правая пропаганда» и конспирология.

Но стоило Байдену один раз попасть в не подконтрольную ему среду — на публичные дебаты с соперником — и тщательно выстраиваемая ложь с треском рухнула, а народ разом понял: «Король-то голый!». Сложно сказать, что в этой истории вызывает больше возмущения: очевидный обман и попытки задавить здравый смысл избирателей авторитетностью демократических элит, — или самообман этих самый элит, которые, кажется, и сами утратили связь с реальностью и способность к самокритике.

За неделю до этих дебатов я послушал подкаст с Дональдом Трампом. В отличие от Байдена, он почти не теряет мысль, может отвечать на вопросы и даже неплохо шутит. Но никакой критики не выдерживают качество и глубина его ответов: что ни спроси у него, большую часть времени он будет не к месту рассказывать о своих прошлых достижениях, а если все же ответит, то повторит одну и ту же жидкую мысль. Кроме того, он частенько просто откровенно врет.

Сторонники Трампа обвиняют Байдена в том, что он — всего лишь прикрытие для теневого правительства, которое принимают за старца все решения, поэтому именно в таком когнитивном статусе Байден их и устраивает. В начале его первого президентского срока, когда разговоры о когнитивном увядании еще только начинались, про Байдена распускали слухи, что он — голограмма, за которую разговаривает ИИ. Однако все то же самое можно сказать и про Трампа: у него пока нет признаков когнитивного увядания, но он также не похож на самостоятельную фигуру, а скорее, на фронтмена группы интересов, — на таран, который тащит свою группу во власть.

В дебатах Трампа с Байденом не выиграл никто. Проиграли — все американцы, а вместе с ними и весь демократический мир.

С одной стороны, миром управляют кровожадные, стареющие и автократические параноики. С другой — виртуальные политики с признаками когнитивного увядания и рекурсивным нарциссизмом. Чем дальше, тем это очевиднее.

И тем приятнее мысль о том, что мы создаем ИИ — сверхчеловеческую систему, которая дает хоть какой-то проблеск надежды на то, что порочных людей у власти когда-нибудь получится системно заменить.
Ведущий представитель здравоохранения США Вивек Мерти хочет размещать в соцсетях предупреждение о том, что соцсети небезопасны для несовершеннолетних пользователей.

Размещение подобных оповещений на пачках сигарет доказано меняет поведение курильщиков, и Мерти, очевидно, считает, что соцсети угрожают ментальному благополучию детей не меньше, чем сигареты — здоровью курильщиков. Чтобы такое предупреждение появилось на экранах смартфонов, его сначала должен одобрить Конгресс США.

«Подростки, проводящие в социальных сетях более трех часов в день, имеют вдвое больший риск развития симптомов тревожности и депрессии, при этом среднее ежедневное использование в этой возрастной группе летом 2023 года составляло 4,8 часа. Кроме того, почти половина подростков говорят, что социальные сети заставляют их чувствовать себя хуже по поводу своего тела», — говорит Мерти.

Он считает, что предупреждение — только первый шаг, который, однако, не решит эту глобальную проблему. Поэтому он также призывает запретить использование смартфонов в школе и просит родителей организовать “свободные от телефона зоны” перед сном, во время еды и на социальных мероприятиях. Также главный здравоохранитель советует родителям запретить детям регистрироваться в соцсетях до выпуска из средней школы (13-14 лет).

Нашумевшая в этом году книга «Тревожное поколение» психолога Джонатана Хайдта резонирует с тезисом об опасности соцсетей для детей и популярно объясняет, в чем она заключется.

Хайдт говорит, что опрошенные им подростки, с одной стороны, ежедневно пользуются соцсетями вроде TikTok, а с другой — хотели бы, чтобы их не существовало. Стремно слышать от детей слова, которые обычно слышишь от наркозависимых. Физическая аддиктивность соцсетей цементируется “сетевым эффектом”: даже если захочет, подросток не может удалиться из соцсети, потому что там обитает весь круг его общения.

Недавно я выложил сториз о специальном телефоне, на котором нет соцсетей, и назвал его “костылем”, имея в виду, что соцсети можно просто удалить с обычного смартфона — зачем для этого покупать отдельное устройство? Сначала в ответ на сториз мне написала собственная жена: «Почему костыль? Тебе такой бы не помешал лол». И правда, за время войны я стал злоупотреблять проверкой новостей.

Потом мне посыпались сообщения от других подписчиков, которым не понравилось, что я пренебрежительно отзываюсь о свободном от соцсетей телефоне. Это полезная штука, — говорили они. Но я решаю этот вопрос по-другому.

Взрослые люди страдают от избыточного потребления соцсетей не меньше подростков. Но, в отличие от подростков, у нас уже развита ПФК, поэтому мы все же можем “усилием воли” ограничить себя. Я сторонник рационального использования соцсетей, для которого нужно:
1) понимать, какие биологические и социальные механизмы делают их опасными
2) помнить, что соцсети — это, по сути, ИИ, не имеющий собственной воли и следующий за волей (или отсутствием воли) пользователя
3) понимать, что ставить цели и задачи пользования соцсетями — наша ответственность
4) ставить не только сиюминутные, но и стратегические цели в соцсетях.

Эти пункты — не просто теоретические разумные советы. Я не раз консультировал людей, как правильно пользоваться соцсетями, чтобы они не только не съедали время, но и были помощниками в развитии. С этих простых шагов начинается любой процесс настройки инфосреды, которой я на фоне эффектов войны занялся с новой силой. Такие методы, кстати, развиваю не только я, но и китайское правительство, а теперь и американское. Тем более, что соцсети никуда не уйдут из нашей жизни, а будут только мутировать под воздействием новых технологий вроде дополненной реальности и нейроимплантов.
Совет директоров OpenAI — очень важное собрание людей, от которых ход истории зависит, пожалуй, больше, чем от каких-нибудь комитетов ООН и прочих международных организаций. Первый состав этого совета, в который входил ключевой ИИ-ученый Илья Суцкевер, отличился тем, что в конце 2023 года выгнал из компании CEO Сэма Альтмана. Когда Альтман вернулся в компанию, совет директоров практически полностью сменился. Кроме самого Альтмана туда, например, попал Ларри Саммерс — ранее бывший министром финансов США, главным экономистом Всемирного банка и президентом Гарварда.

Две недели назад к совету директоров OpenAI присоединился отставной генерал армии США Пол Накасоне. Последние 6 лет он был ключевым человеком в американской разведке, одновременно занимая посты командующего Киберкоммандованием США и руководителя Агентства национальной безопасности США (NSA).

Последние 10 лет NSA известно миру как спецслужба, которая за всеми следит — скорее всего, и за вами тоже. В 2013 году Эдвард Сноуден рассказал, что эта спецслужба слушает любые телефонные разговоры, читает все переписки, отслеживает всю онлайн и офлайн активность миллионов людей по всему миру — от простых американцев до руководителей стран. Формально это делается для предотвращения террористических атак, на деле же цели тотальной слежки ясны только руководителям Агентства, небольшому кругу американских топ-чиновников и президенту США.

OpenAI объясняет назначение Накасоне в совет директоров компании исключительной экспертизой по кибербезопасности: он отвечал за безопасность открытых и закрытых сетей разведки и военных. В то же время он отвечал и за взлом сетей, компьютерных систем и устройств людей и организаций, за которыми NSA считало нужным следить. В развед-сообществе Накасоне известен продвижением концепций «постоянного вовлечения» и «охоты наперед».

Суть «постоянного вовлечения» в том, что силы кибербезопасности должны не просто реагировать на взломы, а взламывать хакеров до того, как те захотят их взломать. «Охота наперед» означает расширение «постоянного вовлечения» на киберсистемы других стран: при Накасоне союзники США стали превентивно впускать американских киберспециалистов в свои сети, чтобы те помогали выявлять и предотвращать кибер-атаки врагов. Одним из самых успешных кейсов «охоты наперед» Накасоне считает начавшееся в 2018 году сотрудничество с Украиной, которое помогло предотвратить множество российских атак.

В конце 2023 года, когда Накасоне еще руководил кибер-разведкой, он открыто говорил о желании поближе сотрудничать с компаниями вроде OpenAI, чтобы во-первых, объяснить им, что нужно разведке, и только во-вторых для того, чтобы помочь компаниям защититься от иностранных акторов. К слову, еще в 2020 году я писал о том, что другой бывший директор NSA, Кит Александер, у которого Накасоне раньше был подчиненным, стал членом совета директоров Amazon — он и сейчас там.

Раньше в случае союзов бывших генералов разведки и ведущих технокорпораций я делал однозначный вывод, что военные подминают под себя бизнес. Но сегодня я вообще не уверен, что баланс сил выглядит так — думаю, во многом происходит как раз обратное. Пентагон все больше видит военное противостояние как гонку технологий, и все больше признает, что частный сектор на порядок превосходит армию в вопросе инноваций. А у современных ИИ-владык вроде Альтмана чувство мессианства выражено еще сильнее, чем это было в поколении Джобса, Гейтса и Безоса — поэтому они вполне могут рассчитывать «обмануть дьявола».

Например, как вам такая дилемма: этично ли тренировать нейросети на данных, полученных от слежки за соперниками США? Данные — это топливо ИИ, так почему бы не отдать таким компаниям как OpenAI ресурсы разведок и военных, чтобы они беспрепятственно извлекали это топливо из кого угодно?
2024/10/05 10:23:56
Back to Top
HTML Embed Code: