Notice: file_put_contents(): Write of 4646 bytes failed with errno=28 No space left on device in /var/www/group-telegram/post.php on line 50

Warning: file_put_contents(): Only 8192 of 12838 bytes written, possibly out of free disk space in /var/www/group-telegram/post.php on line 50
Беспощадный пиарщик | Telegram Webview: prbezposhady/25745 -
Telegram Group & Telegram Channel
Девочки, в ответ на наш пост про искусственный интеллект в медицине наш читатель, а по совместительству инженер-программист прислал интересное письмо. Само письмо ниже, а сейчас наш комментарий.

В реплике читателя выделено действительно важное свойство ИИ, которое мы в своём посте не упомянули — неспособность признать свою неосведомлённость. Вместе с тем, как справедливо отмечал Рене Декарт, сомнение — это основа познания, именно в нашей способности размышлять о том, что истинно, а что ложно, заложен потенциал развития, энергия жизни. "Я мыслю, следовательно, существую", — утверждал он.

Может сложиться впечатление, что редакция выступает с позиции луддитов, и видит в новых технологиях сплошной вред. Это не так. Прогресс неизбежен, но не надо его идеализировать.


"К вашему длиннопосту про ИИ в медицине. Вот хочется со своей колокольни инженера-программиста прокомментировать. Я уже наверное больше года достаточно активно применяю ИИ в своей работе. В основном в виде умного автодополнения кода, но время от времени хожу к GPT4 с вопросами.

Вот что я заметил по опыту общения. Эта штука в самом деле не может сказать «я не знаю» или «я не понимаю». Она всегда отдаст правдоподобный ответ. Единственное, с чем она хорошо справляется, это задача вида «натолкнуть меня своими рассуждениями на решение задачи, которого я не видел сам», но я могу это эффективно использовать только благодаря своему богатому опыту. Если же ответы ИИ просто бездумно использовать, они очень часто не работают или работают не так, как нужно.

И это при том, что тема айти для ИИ чуть ли не родная, так как прежде всего это создавали айтишники и пробовали это на себе же, и обучающего материала было сколько угодно в виде гитхаба и стаковерфлоу и т. д.

Но в случае айти результат можно увидеть либо мгновенно либо за пару-тройку запусков кода. В коде мы очень быстро понимаем, что что-то не работает или работает не так. А вот в случае человека? Вот ты спросил ИИ рекомендацию, он ее дал, ты применил. А результат ждать, допустим, неделю, и результат будет хреновым. И дальше что? Спросить другую рекомендацию? Позвать настоящего специалиста? А здоровье уже может быть загублено непоправимо, или лечение было безрезультатным и болезнь развилась. Ладно в моей работе я могу делать это в духе «спросил, попробовал, не получилось, прислал ИИ ошибку, еще раз попробовал, и повторять до достижения результата». Но с живым человеком ведь так нельзя, это как-то даже будет напоминать нацистские эксперименты.

Короче, имея опыт работы с ИИ, я бы вместо такого врача лучше пошел бы к бабке-травнице, или сам начал гуглить, разбираться в теме, если нет денег на врача, который работает по классике без этих костылей. А я думаю элита к своему здоровью и на пушечный выстрел не подпустит этих электронных болванов, это нам будут втюхивать, как продукты с пальмовым маслом и прочие достижения современной рыночной экономики =)".



group-telegram.com/prbezposhady/25745
Create:
Last Update:

Девочки, в ответ на наш пост про искусственный интеллект в медицине наш читатель, а по совместительству инженер-программист прислал интересное письмо. Само письмо ниже, а сейчас наш комментарий.

В реплике читателя выделено действительно важное свойство ИИ, которое мы в своём посте не упомянули — неспособность признать свою неосведомлённость. Вместе с тем, как справедливо отмечал Рене Декарт, сомнение — это основа познания, именно в нашей способности размышлять о том, что истинно, а что ложно, заложен потенциал развития, энергия жизни. "Я мыслю, следовательно, существую", — утверждал он.

Может сложиться впечатление, что редакция выступает с позиции луддитов, и видит в новых технологиях сплошной вред. Это не так. Прогресс неизбежен, но не надо его идеализировать.


"К вашему длиннопосту про ИИ в медицине. Вот хочется со своей колокольни инженера-программиста прокомментировать. Я уже наверное больше года достаточно активно применяю ИИ в своей работе. В основном в виде умного автодополнения кода, но время от времени хожу к GPT4 с вопросами.

Вот что я заметил по опыту общения. Эта штука в самом деле не может сказать «я не знаю» или «я не понимаю». Она всегда отдаст правдоподобный ответ. Единственное, с чем она хорошо справляется, это задача вида «натолкнуть меня своими рассуждениями на решение задачи, которого я не видел сам», но я могу это эффективно использовать только благодаря своему богатому опыту. Если же ответы ИИ просто бездумно использовать, они очень часто не работают или работают не так, как нужно.

И это при том, что тема айти для ИИ чуть ли не родная, так как прежде всего это создавали айтишники и пробовали это на себе же, и обучающего материала было сколько угодно в виде гитхаба и стаковерфлоу и т. д.

Но в случае айти результат можно увидеть либо мгновенно либо за пару-тройку запусков кода. В коде мы очень быстро понимаем, что что-то не работает или работает не так. А вот в случае человека? Вот ты спросил ИИ рекомендацию, он ее дал, ты применил. А результат ждать, допустим, неделю, и результат будет хреновым. И дальше что? Спросить другую рекомендацию? Позвать настоящего специалиста? А здоровье уже может быть загублено непоправимо, или лечение было безрезультатным и болезнь развилась. Ладно в моей работе я могу делать это в духе «спросил, попробовал, не получилось, прислал ИИ ошибку, еще раз попробовал, и повторять до достижения результата». Но с живым человеком ведь так нельзя, это как-то даже будет напоминать нацистские эксперименты.

Короче, имея опыт работы с ИИ, я бы вместо такого врача лучше пошел бы к бабке-травнице, или сам начал гуглить, разбираться в теме, если нет денег на врача, который работает по классике без этих костылей. А я думаю элита к своему здоровью и на пушечный выстрел не подпустит этих электронных болванов, это нам будут втюхивать, как продукты с пальмовым маслом и прочие достижения современной рыночной экономики =)".

BY Беспощадный пиарщик


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/prbezposhady/25745

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

One thing that Telegram now offers to all users is the ability to “disappear” messages or set remote deletion deadlines. That enables users to have much more control over how long people can access what you’re sending them. Given that Russian law enforcement officials are reportedly (via Insider) stopping people in the street and demanding to read their text messages, this could be vital to protect individuals from reprisals. For Oleksandra Tsekhanovska, head of the Hybrid Warfare Analytical Group at the Kyiv-based Ukraine Crisis Media Center, the effects are both near- and far-reaching. Oleksandra Matviichuk, a Kyiv-based lawyer and head of the Center for Civil Liberties, called Durov’s position "very weak," and urged concrete improvements. Oh no. There’s a certain degree of myth-making around what exactly went on, so take everything that follows lightly. Telegram was originally launched as a side project by the Durov brothers, with Nikolai handling the coding and Pavel as CEO, while both were at VK. "He has to start being more proactive and to find a real solution to this situation, not stay in standby without interfering. It's a very irresponsible position from the owner of Telegram," she said.
from us


Telegram Беспощадный пиарщик
FROM American