adblock check

Почерк русских врачей против новейшей ChatGPT: как хорошо она распознаёт рецепты?

На первом, самом простом тесте, нейросеть справилась даже лучше того, что можно было ожидать. Но дальше дела пошли хуже

Пользователь X/Twitter с ником pakhandrin провёл необычный тест новой омнимодели ChatGPT-4o (самого передового чат-бот от OpenAI на данный момент), попросив её распознать почерк предписаний врачей на русском языке. Всего тестов было пять, каждый с более высоким уровнем сложности.

Нейросеть полноценно справилась только с первым, но сделала это, пожалуй, лучше ожидаемого — распознала смайлики разных форматов и исправила ошибку в исходном тексте.

Во втором варианте ChatGPT-4o уже начал допускать ошибки — в частности, в номере справки и, возможно, в конечной фразе.

На третьем тесте нейросеть увидела список продуктов вместо перечисления лекарств. Когда ей явно указали, что на фото перечень медикаментов, она написала случайные наименования — видимо, ИИ-галлюцинация.

Четвёртый и пятый тесты больше похожи на приколы из интернета, чем на реальные заметки врачей (но это неточно). Результаты распознавания таких текстов ожидаемые.

BoobyBoo85 BoobyBoo85
Без вести проспавший
ИИ ИИ
69 участников
Вступить
Комментариев пока нет
Оставьте комментарий...
Оставьте комментарий...