Microsoft и Epic Systems объявили о сотрудничестве по внедрению GPT-4 в систему здравоохранения
Microsoft и Epic Systems объявили о сотрудничестве по внедрению GPT-4 от OpenAI в здравоохранение, чтобы использовать чат-бот для ответов на сообщения пациентов и при анализе медицинских записей.
Epic Systems — одна из крупнейших компаний-разработчиков программного обеспечения для здравоохранения. Её решения для электронных медицинских карт, включая MyChart, используют более 29% больниц неотложной помощи в США, а также более 305 млн пациентов по всему миру имеют медкарты Epic.
Однако в 2021 году расследование Stat News показало, что запатентованные алгоритмы Epic Systems в ряде случаев могут давать неточные прогнозы. Это сообщение вызвало ряд критики в адрес компании.
Microsoft объявила, что Epic будет использовать службу Azure, которая обеспечивает доступ API к большим языковым моделям OpenAI, таким как GPT-3 и GPT-4. Последнее решение позволит компании автоматически составлять ответы на сообщения пациентов.
Интеграция генеративного ИИ в некоторые повседневные процессы Epic Systems повысит производительность многих поставщиков, позволяя им сосредоточиться на клинических обязанностях, которые действительно требуют внимание персонала, отметил директор по информационным технологиям UW Health в штате Висконсин Черо Госвами.
Второй вариант использования GPT-4 поможет анализировать данные в базе Slicer Dicer — инструмента исследований Epic. По словам Microsoft, решение поможет персоналу клиник искать информацию в интуитивно понятной форме. Это будет похоже на взаимодействие с ChatGPT.
Однако партнёрство Microsoft и Epic Systems вызывает беспокойство у исследователей больших языковых моделей, поскольку GPT-4 склонна выдавать информацию, не представленную в её наборе данных, или конфабуляции. Языковые модели не обучены производить факты, они умеют только транслировать информацию, которая похожа на факты, заявила главный специалист по этике Hugging Face Маргарет Митчелл.
Ещё одна проблема связана с потенциальной предвзятостью GPT-4, которая может дискриминировать некоторых пользователей по половому, расовому, возрастному и другим признакам.
Текущая политика применения решений OpenAI запрещает применять модели в качестве инструмента для получения медицинских инструкций. Генерирование ложной информации в клинических условиях может привести к трагичным последствиям, заключила Митчелл.