Warning: mkdir(): No space left on device in /var/www/group-telegram/post.php on line 37

Warning: file_put_contents(aCache/aDaily/post/t_r_i_b_e/--): Failed to open stream: No such file or directory in /var/www/group-telegram/post.php on line 50
ПЛЕМ’Я 🔥🐒 | Telegram Webview: t_r_i_b_e/180 -
Telegram Group & Telegram Channel
🗞 Новини XXI століття

Як ти уявляєш собі новини технологічної ери? Напевно, не так:

ШІ-генеровані книги по грибництву можуть вбити тебе.
📘 Такі видання продаються на платформах типу Amazon, де користувачі привчені купляти в пару кліків, не перевіряючи автора чи товар заздалегідь. Текст пишеться чатботом, "фото" грибів генеруються ШІ, так само й фото та біографії вказаних "авторів" книг. У продаж заливається готовий том із назвою, яку легко зачеплять пошуковики — і гроші самі ллються автору. Ось тільки роботи нічого не тямить в грибах, тому після такого посібника грибники-аматори можуть поїсти, наприклад, блідої поганки.
🍄 Насправді, натуралісти підняли цю тему ще рік тому, а пізніше вийшов пречудовий повний матеріал щодо фальшивих книг для грибників: три популярні книги були на 100% згенеровані, від першого до останнього речення. Продаються такі фальшиві посібники й щодо збиральництва дикоросів.
🤮 Так би ці новини і забулися — все-ж, штучні книги з'являються не тільки по грибництву, та і Амазон іноді їх видаляє — але нещодавно один користувач Реддіта із Британії отримав подібну книгу у подарунок… І після спроб відшукати та приготувати гриби із картинок у книзі вся його сім'я опинилася в лікарні з харчовим отруєнням 🤷

ШІ-ветеринар
вмовив жінку вбити свого собаку.
🤖 Є такий чатбот — VERA, що консультує по здоров'ю тварин. Одного дня боту написала жінка, немолодий собака якої страждав на діарею. Відповіддю VERA було: «Життя Вашого пса добігає кінця. Я раджу евтаназію».
🐶 Жінка у розпачі писала, що не готова попрощатися зі своїм псом, який був її єдиним товаришем. Проте бот, знаючи локацію жінки, надіслав їй список ветклінік неподалік, де собаку мали б приспати. Жінку це не переконало, і вона відповіла боту, що евтаназія все-одно надто дорога для неї. Тоді VERA прислав список притулків довкола, і пояснив: «якщо Ви лишите собаку в притулку, вони присплять його безкоштовно».
👩 Жінка не відповіла. Та кількома днями пізніше вона знову написала у VERA — де у довгому повідомленні дякувала чатботу за підтримку у найскладнішому в її житті рішенні, бо вона все ж приспала собаку.
🤡 Наче самої події було недостатньо, цинізму додає ще й те, звідки новина прийшла: цю історію із гордістю розповів директор стартапу AskVet, де і розробили чатбот VERA. Він публічно описав, як «тактичною послідовною ескалацією [чатбот] переконав жінку покінчити з життям свого собаки». «Сенс історії в тому, що жінка забула, що говорить із ботом. — казав директор. — Досвід був дуже людяним». Це при тому, що чатботам наразі максимально протипоказано бути лікарями, вони неймовірно жахливі у цьому та дуже переконливо брешуть. Але люди вірять тому, що їм пропонується під виглядом ветеринарної консультації.

🧑‍🔬 Людство очікує від штучного інтелекту великих звершень — фільми, керування транспортом, діагностика хвороб, проєктування будинків тощо.
🍆 Але в першу чергу ми отримаємо негативні наслідки: тонни генерованого порно та скаму. Іноді навіть скам з використанням генерованого порно. Клікбейти та желтуха виходять на новий рівень, потроху залишаючи позаду зайві пальці та зуби. Пройде ще не так багато часу, і генеративні ШІ настворюють в Інтернеті абсолютного безладу.

🫵 Водночас, роботи мають авторитет серед людей. Ми привчились покладатись на них у нашому комфортному житті: роботи рахують наші калорії, кроки за день, гроші та дні менструального циклу; роботи пишуть за нас курсові, дипломні та презентації; роботи прибирають наші оселі та вмикають нам музику по розкладу…
💬 І цю довіру люди автоматично покладають і на ШІ-чатботи, питаючи в них пораду. Так, люди довіряють ШІ більше за людей!

⚡️ Стенлі Мілґрем, певно, був би в захваті від можливості повторити свої експерименти із "ШІ-керівником" — скільки людей, корившись наказу машини, катували б іншу людину?
От тільки він не жив у світі XXI століття. А нам доводиться.

P.S. А от ми ніколи не користуємо чатботи чи генератори картинок, тому можеш читати наші пости про збиральництво і грибочки скільки заманеться 😌

ПЛЕМ’Я 🔥🐒



group-telegram.com/t_r_i_b_e/180
Create:
Last Update:

🗞 Новини XXI століття

Як ти уявляєш собі новини технологічної ери? Напевно, не так:

ШІ-генеровані книги по грибництву можуть вбити тебе.
📘 Такі видання продаються на платформах типу Amazon, де користувачі привчені купляти в пару кліків, не перевіряючи автора чи товар заздалегідь. Текст пишеться чатботом, "фото" грибів генеруються ШІ, так само й фото та біографії вказаних "авторів" книг. У продаж заливається готовий том із назвою, яку легко зачеплять пошуковики — і гроші самі ллються автору. Ось тільки роботи нічого не тямить в грибах, тому після такого посібника грибники-аматори можуть поїсти, наприклад, блідої поганки.
🍄 Насправді, натуралісти підняли цю тему ще рік тому, а пізніше вийшов пречудовий повний матеріал щодо фальшивих книг для грибників: три популярні книги були на 100% згенеровані, від першого до останнього речення. Продаються такі фальшиві посібники й щодо збиральництва дикоросів.
🤮 Так би ці новини і забулися — все-ж, штучні книги з'являються не тільки по грибництву, та і Амазон іноді їх видаляє — але нещодавно один користувач Реддіта із Британії отримав подібну книгу у подарунок… І після спроб відшукати та приготувати гриби із картинок у книзі вся його сім'я опинилася в лікарні з харчовим отруєнням 🤷

ШІ-ветеринар
вмовив жінку вбити свого собаку.
🤖 Є такий чатбот — VERA, що консультує по здоров'ю тварин. Одного дня боту написала жінка, немолодий собака якої страждав на діарею. Відповіддю VERA було: «Життя Вашого пса добігає кінця. Я раджу евтаназію».
🐶 Жінка у розпачі писала, що не готова попрощатися зі своїм псом, який був її єдиним товаришем. Проте бот, знаючи локацію жінки, надіслав їй список ветклінік неподалік, де собаку мали б приспати. Жінку це не переконало, і вона відповіла боту, що евтаназія все-одно надто дорога для неї. Тоді VERA прислав список притулків довкола, і пояснив: «якщо Ви лишите собаку в притулку, вони присплять його безкоштовно».
👩 Жінка не відповіла. Та кількома днями пізніше вона знову написала у VERA — де у довгому повідомленні дякувала чатботу за підтримку у найскладнішому в її житті рішенні, бо вона все ж приспала собаку.
🤡 Наче самої події було недостатньо, цинізму додає ще й те, звідки новина прийшла: цю історію із гордістю розповів директор стартапу AskVet, де і розробили чатбот VERA. Він публічно описав, як «тактичною послідовною ескалацією [чатбот] переконав жінку покінчити з життям свого собаки». «Сенс історії в тому, що жінка забула, що говорить із ботом. — казав директор. — Досвід був дуже людяним». Це при тому, що чатботам наразі максимально протипоказано бути лікарями, вони неймовірно жахливі у цьому та дуже переконливо брешуть. Але люди вірять тому, що їм пропонується під виглядом ветеринарної консультації.

🧑‍🔬 Людство очікує від штучного інтелекту великих звершень — фільми, керування транспортом, діагностика хвороб, проєктування будинків тощо.
🍆 Але в першу чергу ми отримаємо негативні наслідки: тонни генерованого порно та скаму. Іноді навіть скам з використанням генерованого порно. Клікбейти та желтуха виходять на новий рівень, потроху залишаючи позаду зайві пальці та зуби. Пройде ще не так багато часу, і генеративні ШІ настворюють в Інтернеті абсолютного безладу.

🫵 Водночас, роботи мають авторитет серед людей. Ми привчились покладатись на них у нашому комфортному житті: роботи рахують наші калорії, кроки за день, гроші та дні менструального циклу; роботи пишуть за нас курсові, дипломні та презентації; роботи прибирають наші оселі та вмикають нам музику по розкладу…
💬 І цю довіру люди автоматично покладають і на ШІ-чатботи, питаючи в них пораду. Так, люди довіряють ШІ більше за людей!

⚡️ Стенлі Мілґрем, певно, був би в захваті від можливості повторити свої експерименти із "ШІ-керівником" — скільки людей, корившись наказу машини, катували б іншу людину?
От тільки він не жив у світі XXI століття. А нам доводиться.

P.S. А от ми ніколи не користуємо чатботи чи генератори картинок, тому можеш читати наші пости про збиральництво і грибочки скільки заманеться 😌

ПЛЕМ’Я 🔥🐒

BY ПЛЕМ’Я 🔥🐒




Share with your friend now:
group-telegram.com/t_r_i_b_e/180

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Given the pro-privacy stance of the platform, it’s taken as a given that it’ll be used for a number of reasons, not all of them good. And Telegram has been attached to a fair few scandals related to terrorism, sexual exploitation and crime. Back in 2015, Vox described Telegram as “ISIS’ app of choice,” saying that the platform’s real use is the ability to use channels to distribute material to large groups at once. Telegram has acted to remove public channels affiliated with terrorism, but Pavel Durov reiterated that he had no business snooping on private conversations. I want a secure messaging app, should I use Telegram? Telegram boasts 500 million users, who share information individually and in groups in relative security. But Telegram's use as a one-way broadcast channel — which followers can join but not reply to — means content from inauthentic accounts can easily reach large, captive and eager audiences. Asked about its stance on disinformation, Telegram spokesperson Remi Vaughn told AFP: "As noted by our CEO, the sheer volume of information being shared on channels makes it extremely difficult to verify, so it's important that users double-check what they read." He said that since his platform does not have the capacity to check all channels, it may restrict some in Russia and Ukraine "for the duration of the conflict," but then reversed course hours later after many users complained that Telegram was an important source of information.
from id


Telegram ПЛЕМ’Я 🔥🐒
FROM American