group-telegram.com/solid_state_humanity/206
Last Update:
Европа очень сильно отстает от США и Китая в развитии ИИ. К этой давно очевидной мысли пришел и вчерашний отчет от французской структуры OPECST (Парламентское управление по оценке научно-технических решений). А происходит это, по сути, из-за двух причин
Во-первых энергоинфраструктура. Несмотря на теоретическое желание инвестировать большие суммы в развитие ИИ и создание дата-центров, инфраструктура в Европе, включая энергетическую сеть, не готова к таким нагрузкам. Электрические сети просто не рассчитаны на столь высокий спрос, что приведет к их коллапсу. Т.н. "зеленые" источники энергии вроде ветряных установок или солнечных батарей, на которые сделали ставку многие европейские государства (взять ту же Германию, которая вдобавок отказалась от ядерной энергетики), также не способны обеспечить таким уровнем энергии датацентры.
На этом канале уже говорилось о том, что некоторые датацентры могут потреблять до 1 гигаватта энергии. А тренировка одной крупной ИИ-модели, например GPT-3, может потребовать до 10 МВт мощности в течение нескольких недель. Средняя солнечная панель производит около 300 ватт в пиковых условиях. Для того чтобы обеспечить хотя бы 10 МВт для одного дата-центра, потребуется около 33 333 солнечных панелей. И это не говоря об отсутствии бесперебойности и зависимости от времени суток. Типичная ветряная турбина мощностью 2 МВт производит в среднем около 6 ГВт-ч в год, что эквивалентно энергии для 2000 домов. Чтобы обеспечить 10 МВт для дата-центра, потребуется минимум 5 ветряных турбин, работающих на полную мощность круглосуточно. И опять же никакой бесперебойности из-за переменности ветра.
Во-вторых даже если были бы сделаны значительные инвестиции в инфраструктуру, отсутствуют необходимые средства для её строительства и обновления. К тому же попытки Евросоюза регулировать ИИ абсурдными законами, такими как "Закон об ИИ" (AI Act), делают европейский рынок излишне бюрократизированным и бесперспективным.
Тут я даже не знаю, с чего начать. Акт разделяет ИИ на четыре категории в зависимости от уровня риска (минимальный, ограниченный, высокий и неприемлемый). ИИ, классифицированный как "высокий риск" (например, в здравоохранении или правосудии), требует сертификации и аудитов, что может замедлить внедрение инноваций. Компании обязаны объяснять, как работают их алгоритмы, что в случае с большими нейросетями вроде GPT-3, становится крайне сложным. Это может привести к обязательствам по разглашению торговых секретов и снижению эффективности работы ИИ. Также для категории "высокий риск" требуется обязательное вмешательство человека, что ограничивает использование ИИ в таких областях, как автономный транспорт или финансовые технологии.
BY Solid State Humanity
Share with your friend now:
group-telegram.com/solid_state_humanity/206