Telegram Group & Telegram Channel
#ИИ #диагностика #ихнравы

ChatGPT-4 превзошел врачей по качеству диагностики

Доктор Адам Родман, эксперт по внутренним болезням в медицинском центре Beth Israel Deaconess в Бостоне, даже не предполагал, что в результате эксперимента с постановкой диагноза с помощью генеративной нейросети ChatGPT-4 искусственный интеллект (ИИ) победит аналоговый. Впрочем, опишу всё в деталях.

Как пишет NY Times, в эксперименте приняли участие 50 врачей, среди которых были как ординаторы, так и лечащие врачи, набранные через несколько крупных американских больничных систем. Результаты эксперимента были опубликованы в журнале JAMA Network Open.

Испытуемым давали по 6 историй болезней и оценивали их способности ставить диагнозы и объяснять, почему они мыслят именно так. Оценивали результаты подопытных медицинские эксперты, которые видели только ответы участников, не зная, были ли они получены от врача, использующего ChatGPT-4, только от ChatGPT-4 и врача без ChatGPT-4. Участников оценивали по шкале от 0 до 100%.

Истории болезни, использованные в исследовании, были основаны на реальных пациентах и ​​являются частью набора из 105 случаев, которые использовались исследователями с 1990-х годов. Случаи намеренно никогда не публиковались, чтобы студенты-медики и другие могли пройти тестирование на них без какого-либо предварительного знания. Это также означало, что ChatGPT не мог быть обучен на них.

В результате эксперимента, чат-бот от компании OpenAI набрал в среднем 90% по качественному показателю диагностики заболеваний. Врачи, которым случайным образом было поручено использовать чат-бот, получили средний балл 76%. Те, кому было поручено не использовать ChatGPT-4, получили средний балл 74%.

После первоначального шока от результатов исследования доктор Родман решил немного глубже изучить данные и просмотреть фактические журналы сообщений между врачами и ChatGPT. Врачи видели диагнозы и рассуждения чат-бота, так почему же те, кто использовал чат-бот, не справились лучше?

Оказывается, врачи часто не доверяли чат-боту, когда он указывал на что-то, что противоречило их диагнозам. Вместо этого они, как правило, оставались верны своему собственному представлению о правильном диагнозе. Была и другая проблема: многие врачи не знали, как в полной мере использовать чат-бот.

Исследование выявило 2 главные проблемы, мешающие врачам полноценно работать с ИИ-инструментами: проблему недоверия к технологиям и отсутствие цифровых компетенций. Если вторая проблема решается с помощью обучения, то первую решить не так просто. Пройдет не один год прежде, чем врач научится доверять ИИ. Возможно, это к лучшему, так как у нейросетей случаются галлюцинации и полностью доверять им постановку диагноза не стоит.

@medicalksu



group-telegram.com/medicalksu/5364
Create:
Last Update:

#ИИ #диагностика #ихнравы

ChatGPT-4 превзошел врачей по качеству диагностики

Доктор Адам Родман, эксперт по внутренним болезням в медицинском центре Beth Israel Deaconess в Бостоне, даже не предполагал, что в результате эксперимента с постановкой диагноза с помощью генеративной нейросети ChatGPT-4 искусственный интеллект (ИИ) победит аналоговый. Впрочем, опишу всё в деталях.

Как пишет NY Times, в эксперименте приняли участие 50 врачей, среди которых были как ординаторы, так и лечащие врачи, набранные через несколько крупных американских больничных систем. Результаты эксперимента были опубликованы в журнале JAMA Network Open.

Испытуемым давали по 6 историй болезней и оценивали их способности ставить диагнозы и объяснять, почему они мыслят именно так. Оценивали результаты подопытных медицинские эксперты, которые видели только ответы участников, не зная, были ли они получены от врача, использующего ChatGPT-4, только от ChatGPT-4 и врача без ChatGPT-4. Участников оценивали по шкале от 0 до 100%.

Истории болезни, использованные в исследовании, были основаны на реальных пациентах и ​​являются частью набора из 105 случаев, которые использовались исследователями с 1990-х годов. Случаи намеренно никогда не публиковались, чтобы студенты-медики и другие могли пройти тестирование на них без какого-либо предварительного знания. Это также означало, что ChatGPT не мог быть обучен на них.

В результате эксперимента, чат-бот от компании OpenAI набрал в среднем 90% по качественному показателю диагностики заболеваний. Врачи, которым случайным образом было поручено использовать чат-бот, получили средний балл 76%. Те, кому было поручено не использовать ChatGPT-4, получили средний балл 74%.

После первоначального шока от результатов исследования доктор Родман решил немного глубже изучить данные и просмотреть фактические журналы сообщений между врачами и ChatGPT. Врачи видели диагнозы и рассуждения чат-бота, так почему же те, кто использовал чат-бот, не справились лучше?

Оказывается, врачи часто не доверяли чат-боту, когда он указывал на что-то, что противоречило их диагнозам. Вместо этого они, как правило, оставались верны своему собственному представлению о правильном диагнозе. Была и другая проблема: многие врачи не знали, как в полной мере использовать чат-бот.

Исследование выявило 2 главные проблемы, мешающие врачам полноценно работать с ИИ-инструментами: проблему недоверия к технологиям и отсутствие цифровых компетенций. Если вторая проблема решается с помощью обучения, то первую решить не так просто. Пройдет не один год прежде, чем врач научится доверять ИИ. Возможно, это к лучшему, так как у нейросетей случаются галлюцинации и полностью доверять им постановку диагноза не стоит.

@medicalksu

BY Medical Ксю




Share with your friend now:
group-telegram.com/medicalksu/5364

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Telegram has become more interventionist over time, and has steadily increased its efforts to shut down these accounts. But this has also meant that the company has also engaged with lawmakers more generally, although it maintains that it doesn’t do so willingly. For instance, in September 2021, Telegram reportedly blocked a chat bot in support of (Putin critic) Alexei Navalny during Russia’s most recent parliamentary elections. Pavel Durov was quoted at the time saying that the company was obliged to follow a “legitimate” law of the land. He added that as Apple and Google both follow the law, to violate it would give both platforms a reason to boot the messenger from its stores. "He has kind of an old-school cyber-libertarian world view where technology is there to set you free," Maréchal said. Messages are not fully encrypted by default. That means the company could, in theory, access the content of the messages, or be forced to hand over the data at the request of a government. "He has to start being more proactive and to find a real solution to this situation, not stay in standby without interfering. It's a very irresponsible position from the owner of Telegram," she said. But Telegram says people want to keep their chat history when they get a new phone, and they like having a data backup that will sync their chats across multiple devices. And that is why they let people choose whether they want their messages to be encrypted or not. When not turned on, though, chats are stored on Telegram's services, which are scattered throughout the world. But it has "disclosed 0 bytes of user data to third parties, including governments," Telegram states on its website.
from jp


Telegram Medical Ксю
FROM American