Telegram Group & Telegram Channel
Peter Thiel выступил на 200-летии старейшего студенческого/дебатного клуба мира в Оксфорде про самоуничтожение западной цивилизации:

- Я за анти антилиберализм - то есть я за либерализм, свободный западный мир и университеты. Еще с конца 80ых, во время моей учебы в Стенфорде я задумывался о путях западной цивилизации, и поучаствовал в прекращении виктимизации Rigoberta Menchu, правозащитницы и феминистки из Гватемалы: мою [нишевую] статью перепечатал WSJ, и спустя 4 года ей дали нобелевку за защиту прав коренных народов

- Универы забюрократизированы и консервативны. Сейчас они выдадут то же самое, что и в 1980ые? (да наверно даже что и в XIXом веке, разговоры о Шекспире?). Но вы же также двигаете теорию струн и прочие естественные науки. А еще Френсис Бэкон говорил: роль универов - инициировать важное. Что есть прогресс для человечества? Manhattan project, полет на Луну etc. Физик Bob Laughlin после нобелевки решил почелленджить другие сферы (эволюция, генетика, intelligence) и пришел к выводу, что это все большая афера на деньги налогоплательщиков, и за покушение на табу его канцельнули. Получается, там что-то не так? Наука нарезана на узкие сферы (теорию струн понимают 100 чел в мире) и там коррупции больше, чем в гуманитарных науках, т.к. они оценивают сами себя

- За пределами computer science, world of bits, уже лет 40 идет big stagnation: в world of atoms прорывов нет. Мы мечтали о сингулярности по Курцвейлу, а по факту впервые за века в США и UK новое поколение ожидает жизнь хуже своих родителей. Либертарианцам не нравится, но именно военные сделали атомную бомбу всего за 3.5 года

- Причины стагнации разные, на мой взгляд - это укоренившееся в establishment восприятие, что технологии якобы опасны. Это назвали existential risks, корни с 1945г (сделали ядерную бомбу), и это спроецировали на биотех (поэтому не делают звездами авторов mRNA вакцин - неприятно вспоминать Ухань). 20 лет назад в computer science нарратив про AI был позитивный, а не ужасающий, но мы повернули в луддитство и стали как лагеря эскапистов на Burning Man )) Eliezer Yudkowsky пошутил, что выровнять (align) AI с values человечества не получится, поэтому мы должны “умереть с достоинством”. Климат я вообще молчу - это какой-то крестовый поход аутистки Греты Тунберг? Технологический прогресс замедлили насколько это вообще возможно =), что это за zeitgeist?

- Ник Бостром отсюда, из Оксфорда, пишет, причем максимально занудно, что надо: 1) ограничить прогресс, 2) сделать как можно менее diverse/inclusive выборку представителей общества, 3) экстремально enforce’ить политику ограничений, 4) создать эффективное мировое правительство. Он не произносит слово totalitarian, но полностью его подразумевает
А
- Я либерал, и это совсем жесть: даже если existential risks окажутся неправдой, в мире все равно будет построено единое авторитарное государство?! Это уже какое-то прибытие Антихриста получается. Мне кажется, что вместо Армагеддона обратиться к Антихристу - это перебор. А как насчет либеральных институтов за последние 200 лет, благодаря которым мы, вообще-то, и прибыли в сегодняшний уровень развития? Global totalitarian state это как бы тоже existential risk

- Проблема узкой специализации (выросла из успехов промышленной революции и разделения труда Адама Смита) еще и в том, что общественность выкинули из обсуждения вопросов по прогрессу: что делать, зачем, как. Это самая ключевая проблема стагнации. Я за акселерацию прогресса, за технологии, я даже за AI

- Политические вопросы всплывают всюду: если крипто это либертарианство (кстати, теперь не оч верю, что крипта должна быть libertarian), то AI - это коммунизм, в стиле Китая - отдаем AI контроль над всем. С 60ых уровень удовлетворенности обществ не растет как раз потому, что за пределами инета/компов прогресса особо и нет. Мы так межпланетную цивилизацию будущего не построим. Если у нас луддиты продолжат и победят, то мы все проиграем в пользу Китая - и AI, и освоение Луны, да вообще все. Что это за такая программа самоуничтожения западного мира? Нам надо “Back to the future”



group-telegram.com/Victor_Osyka/436
Create:
Last Update:

Peter Thiel выступил на 200-летии старейшего студенческого/дебатного клуба мира в Оксфорде про самоуничтожение западной цивилизации:

- Я за анти антилиберализм - то есть я за либерализм, свободный западный мир и университеты. Еще с конца 80ых, во время моей учебы в Стенфорде я задумывался о путях западной цивилизации, и поучаствовал в прекращении виктимизации Rigoberta Menchu, правозащитницы и феминистки из Гватемалы: мою [нишевую] статью перепечатал WSJ, и спустя 4 года ей дали нобелевку за защиту прав коренных народов

- Универы забюрократизированы и консервативны. Сейчас они выдадут то же самое, что и в 1980ые? (да наверно даже что и в XIXом веке, разговоры о Шекспире?). Но вы же также двигаете теорию струн и прочие естественные науки. А еще Френсис Бэкон говорил: роль универов - инициировать важное. Что есть прогресс для человечества? Manhattan project, полет на Луну etc. Физик Bob Laughlin после нобелевки решил почелленджить другие сферы (эволюция, генетика, intelligence) и пришел к выводу, что это все большая афера на деньги налогоплательщиков, и за покушение на табу его канцельнули. Получается, там что-то не так? Наука нарезана на узкие сферы (теорию струн понимают 100 чел в мире) и там коррупции больше, чем в гуманитарных науках, т.к. они оценивают сами себя

- За пределами computer science, world of bits, уже лет 40 идет big stagnation: в world of atoms прорывов нет. Мы мечтали о сингулярности по Курцвейлу, а по факту впервые за века в США и UK новое поколение ожидает жизнь хуже своих родителей. Либертарианцам не нравится, но именно военные сделали атомную бомбу всего за 3.5 года

- Причины стагнации разные, на мой взгляд - это укоренившееся в establishment восприятие, что технологии якобы опасны. Это назвали existential risks, корни с 1945г (сделали ядерную бомбу), и это спроецировали на биотех (поэтому не делают звездами авторов mRNA вакцин - неприятно вспоминать Ухань). 20 лет назад в computer science нарратив про AI был позитивный, а не ужасающий, но мы повернули в луддитство и стали как лагеря эскапистов на Burning Man )) Eliezer Yudkowsky пошутил, что выровнять (align) AI с values человечества не получится, поэтому мы должны “умереть с достоинством”. Климат я вообще молчу - это какой-то крестовый поход аутистки Греты Тунберг? Технологический прогресс замедлили насколько это вообще возможно =), что это за zeitgeist?

- Ник Бостром отсюда, из Оксфорда, пишет, причем максимально занудно, что надо: 1) ограничить прогресс, 2) сделать как можно менее diverse/inclusive выборку представителей общества, 3) экстремально enforce’ить политику ограничений, 4) создать эффективное мировое правительство. Он не произносит слово totalitarian, но полностью его подразумевает
А
- Я либерал, и это совсем жесть: даже если existential risks окажутся неправдой, в мире все равно будет построено единое авторитарное государство?! Это уже какое-то прибытие Антихриста получается. Мне кажется, что вместо Армагеддона обратиться к Антихристу - это перебор. А как насчет либеральных институтов за последние 200 лет, благодаря которым мы, вообще-то, и прибыли в сегодняшний уровень развития? Global totalitarian state это как бы тоже existential risk

- Проблема узкой специализации (выросла из успехов промышленной революции и разделения труда Адама Смита) еще и в том, что общественность выкинули из обсуждения вопросов по прогрессу: что делать, зачем, как. Это самая ключевая проблема стагнации. Я за акселерацию прогресса, за технологии, я даже за AI

- Политические вопросы всплывают всюду: если крипто это либертарианство (кстати, теперь не оч верю, что крипта должна быть libertarian), то AI - это коммунизм, в стиле Китая - отдаем AI контроль над всем. С 60ых уровень удовлетворенности обществ не растет как раз потому, что за пределами инета/компов прогресса особо и нет. Мы так межпланетную цивилизацию будущего не построим. Если у нас луддиты продолжат и победят, то мы все проиграем в пользу Китая - и AI, и освоение Луны, да вообще все. Что это за такая программа самоуничтожения западного мира? Нам надо “Back to the future”

BY Victor Osyka, техноцивилизация


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/Victor_Osyka/436

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

On December 23rd, 2020, Pavel Durov posted to his channel that the company would need to start generating revenue. In early 2021, he added that any advertising on the platform would not use user data for targeting, and that it would be focused on “large one-to-many channels.” He pledged that ads would be “non-intrusive” and that most users would simply not notice any change. The message was not authentic, with the real Zelenskiy soon denying the claim on his official Telegram channel, but the incident highlighted a major problem: disinformation quickly spreads unchecked on the encrypted app. This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children. Given the pro-privacy stance of the platform, it’s taken as a given that it’ll be used for a number of reasons, not all of them good. And Telegram has been attached to a fair few scandals related to terrorism, sexual exploitation and crime. Back in 2015, Vox described Telegram as “ISIS’ app of choice,” saying that the platform’s real use is the ability to use channels to distribute material to large groups at once. Telegram has acted to remove public channels affiliated with terrorism, but Pavel Durov reiterated that he had no business snooping on private conversations. These entities are reportedly operating nine Telegram channels with more than five million subscribers to whom they were making recommendations on selected listed scrips. Such recommendations induced the investors to deal in the said scrips, thereby creating artificial volume and price rise.
from es


Telegram Victor Osyka, техноцивилизация
FROM American