→Overall, the answers provided by both models were appropriate and comprehensive. The answers of Google Gemini were more appropriate, comprehensive, and supported by references compared with the answers of ChatGPT. In addition, the agreement among the assessors on the appropriateness of Google Gemini answers was higher, attesting to a higher consistency. ChatGPT had a significantly higher Flesh–Kincaid grade level than Google Gemini (12.3 versus 10.6, p = 0.015), but a similar median Flesh–Kincaid Ease score.
0В целом ответы, предоставленные обеими моделями, были уместными и исчерпывающими. Ответы Google Gemini были более уместными, исчерпывающими и подкреплёнными ссылками по сравнению с ответами ChatGPT. Кроме того, согласие между экспертами в отношении уместности ответов Google Gemini было выше, что свидетельствует о большей согласованности. У ChatGPT был значительно более высокий уровень по шкале Флеша — Кинкейда, чем у Google Gemini (12,3 против 10,6, p = 0,015), но аналогичный средний показатель по шкале Флеша — Кинкейда.