Використання штучного інтелекту в медицині, хірургії, стоматології, онкологіїСвінціцький А.В., Климова В.В., Сендецький С.С. Резюме. Вступ. Останніми роками суттєво підвищився інтерес до технологій штучного інтелекту (ШІ) та їх застосування в медичній практиці. Алгоритми ШІ, а саме машинне (МН) та глибинне навчання (ГН), а також згорткові нейронні мережі (ЗНМ) мають великі перспективи в галузі медичної візуалізації: від розпізнавання, обробки та реконструкції зображень до автоматизованого аналізу та класифікації. Зокрема, вони роблять великий внесок у дисципліни, які значною мірою покладаються на зображення. Метою роботи став систематичний огляд сучасної медичної літератури щодо використання ШІ в хірургії, стоматології та онкології. Матеріали та методи. У роботі використано дані медичної бази MEDLINE за пошуковими критеріями, які включали слова «штучний інтелект», «хірургія», «стоматологія», «онкологія». Результати. Наука про хірургічні дані (Surgical Data Science — SDS) має за мету підвищення якості інтервенційної медичної допомоги та її цінності шляхом збору, організації, обробки і моделювання даних. У сучасних дослідженнях встановлено можливість і достовірність алгоритмів МН для раннього прогнозування інтраопераційних ускладнень. Щодо застосування ШІ в стоматології визначено, що він може автоматично виявляти і класифікувати зубні реставрації на панорамних рентгенівських знімках, а також допомагати у виявленні стоматологічних та щелепно-лицевих патологічних станів, таких як пародонтоз, карієс коренів, ураження кісткової тканини, вади обличчя тощо. У галузі онкології моделі ШІ, якщо їх ефективність буде підтверджено в проспективних дослідженнях, можуть відігравати важливу роль у ранньому виявленні та класифікації раку, тим більше, що їх ефективність порівнянна, якщо не ліпша, ніж у експертів у цій галузі. Висновки. ШІ розширює свою наявність у клінічних системах, починаючи від баз даних і закінчуючи інтраопераційним відеоаналізом. У нинішніх дослідженнях щодо використання ШІ в медичній галузі доведено, що нейронні мережі працювали так само, як і спеціалісти-експерти, але з більшою точністю і акуратністю. У деяких дослідженнях моделі ШІ навіть перевершили фахівців. Отже, сучасний ШІ чудово вміє використовувати структуровані знання та отримувати розуміння з величезних обсягів даних, але він не здатний створювати асоціації, як це робить людський мозок, і лише частково здатний ухвалювати складні рішення в клінічній ситуації. Одержано 20.11.2024 DOI: 10.32471/clinicaloncology.2663-466X.56-4.33692 ВСТУПШІ — це тип цифрової комп’ютерної системи, яка аналогічно з людським мозком обробляє інформацію. Обговорюючи поняття ШІ та його підмножин, важливо уточнити, що ШІ, MН і ГН — це дисципліни, які перетинаються [1]. Насправді МН використовує комп’ютерні алгоритми, автоматично розроблені на основі вхідних навчальних даних, для розпізнавання закономірностей у великих базах даних [2]. Отже, ці моделі виступають високоефективними інструментами для прогнозування майбутніх результатів на основі нової непередбачуваної інформації та ухвалення рішень у різних дисциплінах [3]. Крім того, моделі можна вдосконалювати у міру надходження нових даних. ГН є підмножиною МН [2]. ЗНМ — це складна багатошарова архітектура, в основі якої лежать біологічні процеси, оскільки їхній дизайн має на меті відтворити структуру та організацію зорової кори головного мозку, де взаємопов’язані нейрони обробляють і передають інформацію [4]. Створення цих численних зв’язків дозволяє комп’ютерам імітувати когнітивні функції, такі як процес міркування, щоб визначити найбільш вірогідну відповідь на проблему. Тому вони особливо пристосовані для виконання завдань, пов’язаних із візуальними образами. Так, алгоритми ШІ, а саме ГН та ЗНМ, мають великі перспективи в галузі медичної візуалізації [5] від розпізнавання, обробки та реконструкції зображень до автоматизованого аналізу та класифікації [6]. Загалом ШІ може допомогти клініцистам ухвалювати більш обґрунтовані рішення, однак важливо пам’ятати, що він не може замінити клінічний досвід [7]. ШІ В ХІРУРГІЇЗ появою нових технологій та їх впровадженням в операційну поряд з величезною кількістю даних, що генеруються в процесі хірургічного лікування пацієнтів, виникла нова наукова дисципліна, яка отримала назву «наука про хірургічні дані» (SDS). Основна мета SDS — підвищити якість інтервенційної медичної допомоги та її цінність шляхом збору, організації, обробки і моделювання даних [8]. У межах SDS комплексна інформація може надходити з різних джерел, таких як пацієнти, оператори, які беруть участь у наданні медичної допомоги, датчики для вимірювання даних, пов’язаних з пацієнтом і процедурою, а також знання про предметну галузь. На основі SDS розроблені перспективні варіанти застосування ШІ та МН з кінцевою метою підтримки ухвалення хірургічних рішень і підвищення безпеки хворих [9]. Хорошим прикладом того, як SDS можна використовувати для ініціатив з підвищення якості, є система «чорного ящика» в операційній [10]. Ця аналітична платформа дозволяє збирати та інтегрувати широкий спектр інтраопераційних даних (наприклад аудіо, відео, фізіологічні параметри), забезпечуючи як людські, так і засновані на ШІ метрики. Нещодавні дослідження використовували цю платформу для вивчення технічних і нетехнічних хірургічних показників та їхнього зв’язку з результатами лікування пацієнтів [11–12]. Зовсім недавно в кількох дослідженнях автори змогли встановити можливість і достовірність алгоритмів МН для раннього прогнозування інтраопераційних ускладнень, таких як артеріальна гіпотензія і гіпоксемія, у некардіальній [13–14] і кардіоторакальній хірургії [15–16]. Візуалізація доповненої реальності функціонує шляхом створення цифрової тривимірної (3D) реконструкції анатомії пацієнта на основі передопераційної візуалізації та накладання цієї моделі на відповідну анатомію під час операції [17–18]. Незважаючи на те що у сфері нейрохірургії та ортопедії цей метод використовується часто, зсув тканин деформованих органів черевної порожнини викликає труднощі з біомеханічним моделюванням і відстеженням у реальному часі [19]. Проте доповнена реальність полегшує віртуальну демонстрацію критично важливих структур, таких як сечоводи і магістральні судини, під час операції. Віртуальна сегментація органів дозволяє маніпулювати цифровим аватаром, елементи зображення можуть бути вилучені або зроблені прозорими для візуалізації глибших структур, а також можуть накладатися віртуальні лінії резекції [20–21]. Ще один варіант використання ШІ в хірургії, заснований на даних, стосується оцінки інтраопераційної ефективності як на індивідуальному, так і на командному рівнях. Сучасні золоті стандарти оцінки інтраопераційних технічних і нетехнічних навичок базуються на спостереженні та оцінці експертів. Хоча ці методи широко використовуються, існує багато обмежень, пов’язаних з притаманною їм суб’єктивністю, неоптимальною надійністю між експертами та обмеженою відтворюваністю і масштабованістю. Використання ШІ, особливо комп’ютерного зору, дає багатообіцяючу можливість автоматизувати, стандартизувати і масштабувати оцінку ефективності в галузі хірургії, зокрема кардіохірургії. Ще у 2005 р. Dosis A. та співавт. у своєму дослідженні задокументували надійність відеоаналізу хірургічних рухів для оцінки лапароскопічної ефективності в операційній порівняно з традиційним трудомістким підходом, заснованим на оцінці людиною [22]. Azari. D.P. та співавт. порівняли рейтингові оцінки експертів-хірургів з комп’ютерними оцінками технічних навичок (наприклад накладання швів, зав’язування вузлів), включно з плавністю рухів, обробкою тканин і економією рухів [23] та довели, що комп’ютерні оцінки були більш об’єктивними та надійними. Наявні системи ШІ здатні збирати, обробляти і осмислювати інформацію, зібрану в операційній [24]. Однак важливою вимогою до цих систем є здатність розуміти й адаптувати свої алгоритми на основі контекстної інформації в реальному часі, що дозволяє їм надавати допомогу з урахуванням контексту [25–26]. Важливою є також точність прогнозування. Щоб мати можливість підтримувати і направляти когнітивні завдання команди, система ШІ має передбачати майбутні стани, використовуючи минулу і поточну інформацію від людських і автоматизованих систем операційної [27]. ШІ у стоматологіїВикористання ШІ зумовило високу точність, чутливість, специфічність і точність у виявленні та класифікації порушень прикусу в ортодонтії [28]. ШІ може автоматично виявляти і класифікувати зубні реставрації на панорамних рентгенівських знімках, а також допомагати у виявленні стоматологічних та щелепно-лицевих патологічних станів, таких як пародонтоз, карієс коренів, ураження кісткової тканини, наприклад бісфосфонатний остеонекроз щелепи, пов’язаний з прийомом бісфосфонатів, вади обличчя тощо [29]. Як зазначалося раніше, популярним напрямком у МН є «ГН», де багатошарові нейронні мережі використовуються для вивчення ієрархічних особливостей даних. ГН належить до процесу обробки інформації (наприклад зображень) і відповідних міток (наприклад «каріозний зуб» або «певна ділянка на зображенні, де наявне каріозне ураження карієсом»), які повторно пропускаються через нейронну мережу під час навчання, при цьому параметри моделі циклічно коригуються для підвищення її точності [30]. На основі ГН алгоритм ЗНМ сприяє виявленню карієсу на періапікальних рентгенограмах [31]. Він також успішно допоміг у виявленні та класифікації уражених тимчасових зубів у осіб з повним прорізуванням постійних різців верхньої щелепи на панорамних рентгенограмах [32]. Крім того, автоматизована роботизована система може виконувати вимоги типових стоматологічних операцій з точним, безпечним та тривимірним (3D) препаруванням зубів [33]. ЗНМ ШІ може бути використана для класифікації зубних дуг і проєктування знімних часткових протезів [34]. ШІ може аналізувати вплив ортогнатичного лікування, пропонуючи нову функцію, яка дозволяє об’єктивно оцінити привабливість обличчя [35]. Карієс — найпоширеніше стоматологічне захворювання, і саме тому його виявлення на ранній стадії має вирішальне значення. Для скринінгу та діагностики карієсу стоматологи здебільшого використовують стоматологічні зонди, і завдяки аналізу текстури та зміни кольору вони можуть визначити, здоровий зуб чи ні. Цей метод дуже суб’єктивний і ґрунтується на досвіді стоматолога. Зокрема, апроксимальні поверхні можуть бути проблематичними при стоматологічному огляді [36]. Додаткові дослідження, такі як рентгенографія, є важливими в сучасній стоматології та можуть поліпшити виявлення карієсу. Найбільш поширеними типами рентгенологічних знімків, що використовуються для скринінгу карієсу, є прикусні, періапікальні та панорамні рентгенівські знімки. Рідше для виявлення карієсу використовують комп’ютерну томографію [37]. Виявленню карієсу на рентгенологічних знімках можуть допомогти нейронні мережі, сприяючи більш швидкому і точному обстеженню. Використання нейронних мереж у консервативній стоматології розвивається швидко, але воно ще не дуже поширене [38]. Алгоритми можуть бути використані для визначення місцезнаходження країв анатомічних і патологічних структур, які можуть бути дуже схожими один на одного через фонові зображення та низьку контрастність. У реставраційній стоматології ШІ можна використовувати для виявлення та класифікування зубних реставрацій, як у дослідженні Abdalla-Aslan R. та співавт. від 2020 р. Алгоритми, використані в їхній роботі, виявили 93,6% реставрацій зубів на 83 панорамних знімках. Крім того, реставрації класифіковано на 11 категорій за формою та розподілом значень сірого кольору [29]. Нейронні мережі можуть бути корисними при плануванні вибору методу стоматологічного лікування та препарування порожнини. ШІ В ОНКОЛОГІЇГН зробило революцію в аналізі зображень після вражаючої перемоги в конкурсі з розпізнавання зображень ILSVRC (ImageNet Large Scale Visual Recognition Challenge) у 2012 р., після чого багато дослідників і лікарів спробували використати можливості ШІ (або, точніше, ЗНМ) для застосування в клінічній радіології та онкології, оскільки це позбавляє від необхідності генерувати детальні ознаки вручну [39]. У розвинених країнах візуалізація цілого зображення стає рутиною, що призвело до накопичення цифрових патологічних зображень і дозволило використати ГН для патологічної діагностики [40]. Одна із запропонованих моделей виокремлює ознаки за допомогою ЗНМ і передає їх машині опорних векторів, іншому алгоритму МН, для навчання виявлення мітозу молочної залози [41]. Успіх ЗНМ не обмежується гістопатологічними зображеннями, а поширюється на інші медичні зображення, отримані за допомогою неінвазивних методів, таких як комп’ютерна томографія (КТ), магнітно-резонансна томографія (МРТ) і мамографія, і навіть на фотографії підозрілих уражень. У рентгенології M. Anthimopoulos та співавт. зафіксовано, що КТ-скани пацієнтів із захворюваннями легень можна використовувати для побудови ЗНМ, які класифікують текстурні патерни в легенях (такі як непрозорість шліфованого скла, мікронодули) із середньою точністю 0,85 [42]. В іншій роботі X. Wang та співавт. використовували МРТ-зображення 172 хворих з простатитом для навчання і тестування ЗНМ, яка могла відрізнити рак передміхурової залози від її доброякісних станів (таких як збільшення передміхурової залози) з показником AUC 0,84 [43]. Аналогічно Y. Jiang та співавт. використовували КТ-сканування для розробки ЗНМ, які прогнозують приховані перитонеальні метастази при онкопатології шлунка з нормалізованою AUC (0,92–0,94) порівняно з показником, отриманим на основі клінічних і патологічних ознак (AUC=0,51–0,63) [44]. У ретроспективному дослідженні з підтвердженим біопсією діагнозом і поздовжніми спостереженнями S.M. McKinney та співавт. опублікували ансамблевий підхід з 3 незалежними моделями ГН, які прогнозують ступінь ризику раку безпосередньо на основі мамограм близько 29 000 жінок (AUC=0,75–0,88) [45]. Група також повідомила про підвищення абсолютної специфічності (1,2–5,7%) та чутливості (2,7–9,4%) виявлення пухлин на мамограмах порівняно із середньостатистичним лікарем-рентгенологом. Загалом такі моделі, якщо їх ефективність підтвердять у проспективних дослідженнях, можуть відігравати важливу роль у ранньому виявленні та класифікації новоутворень, тим більше, що їх ефективність порівнянна, якщо не вища, ніж у експертів у цій галузі. ВИСНОВОКШІ розширює свою наявність у клінічних системах, починаючи від баз даних і закінчуючи інтраопераційним відеоаналізом. Згідно з дослідженнями використання ШІ в медичній галузі нейронні мережі працювали так само, як і спеціалісти-експерти, але з більшою точністю і акуратністю. У деяких дослідженнях моделі ШІ також перевершили фахівців. Так, сучасний ШІ чудово вміє використовувати структуровані знання та отримувати розуміння з величезних обсягів даних, але він не здатний створювати асоціації, як це робить людський мозок, і лише частково здатний ухвалювати складні рішення в клінічній ситуації. СПИСОК ВИКОРИСТАнОЇ ЛІТЕРАТУРИ1. Le Berre, C., Sandborn, W. J., Aridhi, S., Devignes, M. D., Fournier, L., Smaïl-Tabbone, M., … Peyrin-Biroulet, L. (2020). Application of Artificial Intelligence to Gastroenterology and Hepatology. Gastroenterology, 158(1), 76–94. e2. doi.org/10.1053/j.gastro.2019.08.058. 2. Yang, Y. J., & Bang, C. S. (2019). Application of artificial intelligence in gastroenterology. World Journal of Gastroenterology, 25(14), 1666–1683. doi.org/10.3748/wjg.v25.i14.1666. 3. Motwani, M., Dey, D., Berman, D. S., Germano, G., Achenbach, S., Al-Mallah, M. H., … Slomka, P. J. (2017). Machine learning for prediction of all-cause mortality in patients with suspected coronary artery disease: a 5-year multicentre prospective registry analysis. European Heart Journal, 38(7), 500–507. doi.org/10.1093/eurheartj/ehw188. 4. Li, N., Zhao, X., Yang, Y., & Zou, X. (2016). Objects Classification by Learning-Based Visual Saliency Model and Convolutional Neural Network. Computational Intelligence and Neuroscience, 7942501. doi.org/10.1155/2016/7942501. 5. Hosny, A., Parmar, C., Quackenbush, J., Schwartz, L. H., & Aerts, H. J. W. L. (2018). Artificial intelligence in radiology. Nature Reviews. Cancer, 18(8), 500–510. doi.org/10.1038/s41568-018-0016-5. 6. Shrestha, P., Poudyal, B., Yadollahi, S., Wright, D. E., Gregory, A. V., Warner, J. D., … Kline, T. (2022). A systematic review on the use of artificial intelligence in gynecologic imaging — Background, state of the art, and future directions. Gynecologic Oncology, 166(3), 596–605. doi.org/10.1016/j.ygyno.2022.07.024. 7. KLAS: Artificial Intelligence Success Requires Partnership, Training (2019). Retrieved from healthitanalytics.com/ news/klas-artificial-intelligence-success-requires-partnership-training. 8. Maier-Hein, L., Vedula, S. S., Speidel, S., Navab, N., Kikinis, R., Park, A., … Jannin, P. (2017). Surgical data science for next-generation interventions. Nature Biomedical Engineering, 1(9), 691–696. doi.org/10.1038/s41551-017-0132-7. 9. Loftus, T. J., Tighe, P. J., Filiberto, A. C., Efron, P. A., Brakenridge, S. C., Mohr, A. M., … Bihorac, A. (2020). Artificial Intelligence and Surgical Decision-making. JAMA Surgery, 155(2), 148–158. doi.org/10.1001/jamasurg.2019.4917. 10. Goldenberg, M. G., Jung, J., & Grantcharov, T. P. (2017). Using Data to Enhance Performance and Improve Quality and Safety in Surgery. JAMA Surgery, 152(10), 972–973. doi.org/10.1001/jamasurg.2017.2888. 11. Jung, J. J., Jüni, P., Lebovic, G., & Grantcharov, T. (2020). First-year Analysis of the Operating Room Black Box Study. Annals of Surgery, 271(1), 122–127. doi.org/10.1097/SLA.0000000000002863. 12. Fecso, A. B., Kuzulugil, S. S., Babaoglu, C., Bener, A. B., & Grantcharov, T. P. (2018). Relationship between intraoperative non-technical performance and technical events in bariatric surgery. British Journal of Surgery, 105(8), 1044–1050. doi.org/10.1002/bjs.10811. 13. Wijnberge, M., Geerts, B. F., Hol, L., Lemmers, N., Mulder, M. P., Berge, P., … Veelo, D. P. (2020). Effect of a Machine Learning-Derived Early Warning System for Intraoperative Hypotension vs Standard Care on Depth and Duration of Intraoperative Hypotension During Elective Noncardiac Surgery: The HYPE Randomized Clinical Trial. JAMA, 323(11), 1052–1060. doi.org/10.1001/jama.2020.0592. 14. Lundberg, S. M., Nair, B., Vavilala, M. S., Horibe, M., Eisses, M. J., Adams, T., … Lee, S. I. (2018). Explainable machine-learning predictions for the prevention of hypoxaemia during surgery. Nature Biomedical Engineering, 2(10), 749–760. doi.org/10.1038/s41551-018-0304-0. 15. Allyn, J., Allou, N., Augustin, P., Philip, I., Martinet, O., Belghiti, M., … Ferdynus, C. (2017). A Comparison of a Machine Learning Model with EuroSCORE II in Predicting Mortality after Elective Cardiac Surgery: A Decision Curve Analysis. PloS One, 12(1), e0169772. doi.org/10.1371/journal.pone.0169772. 16. Lee, H. C., Yoon, H. K., Nam, K., Cho, Y. J., Kim, T. K., Kim, W. H., & Bahk, J. H. (2018). Derivation and Validation of Machine Learning Approaches to Predict Acute Kidney Injury after Cardiac Surgery. Journal of Clinical Medicine, 7(10), 322. doi.org/10.3390/jcm7100322. 17. Mascagni, P., Longo, F., Barberio, M., Seeliger, B., Agnus, V., Saccomandi, P., … Diana, M. (2018). New intraoperative imaging technologies: Innovating the surgeon’s eye toward surgical precision. Journal of Surgical Oncology, 118(2), 265–282. doi.org/10.1002/jso.25148. 18. Pietrabissa, A., Marconi, S., Negrello, E., Mauri, V., Peri, A., Pugliese, L., … Auricchio, F. (2020). An overview on 3D printing for abdominal surgery. Surgical Endoscopy, 34(1), 1–13. doi.org/10.1007/s00464-019-07155-5. 19. Williamson, T., & Song, S. E. (2022). Robotic Surgery Techniques to Improve Traditional Laparoscopy. Journal of THE SOCIETY of Laparoendoscopic Surgeons, 26(2), e2022.00002. doi.org/10.4293/JSLS.2022.00002. 20. März, K., Hafezi, M., Weller, T., Saffari, A., Nolden, M., Fard, N., … Maier-Hein, L. (2015). Toward knowledge-based liver surgery: holistic information processing for surgical decision support. International Journal of Computer Assisted Radiology and Surgery, 10(6), 749–759. doi.org/10.1007/s11548-015-1187-0. 21. Martelli, N., Serrano, C., van den Brink, H., Pineau, J., Prognon, P., Borget, I., & El Batti, S. (2016). Advantages and disadvantages of 3-dimensional printing in surgery: A systematic review. Surgery, 159(6), 1485–1500. doi.org/10.1016/j.surg.2015.12.017. 22. Dosis, A., Aggarwal, R., Bello, F., Moorthy, K., Munz, Y., Gillies, D., & Darzi, A. (2005). Synchronized video and motion analysis for the assessment of procedures in the operating theater. Archives of Surgery, 140(3), 293–299. doi.org/10.1001/archsurg.140.3.293. 23. Azari, D. P., Frasier, L. L., Quamme, S. R. P., Greenberg, C. C., Pugh, C. M., Greenberg, J. A., & Radwin, R. G. (2019). Modeling Surgical Technical Skill Using Expert Assessment for Automated Computer Rating. Annals of Surgery, 269(3), 574–581. doi.org/10.1097/SLA.0000000000002478. 24. Hashimoto, D. A., Rosman, G., Rus, D., & Meireles, O. R. (2018). Artificial Intelligence in Surgery: Promises and Perils. Annals of Surgery, 268(1), 70–76. doi.org/10.1097/SLA.0000000000002693. 25. Kenngott, H. G., Apitz, M., Wagner, M., Preukschas, A. A., Speidel, S., & Müller-Stich, B. P. (2017). Paradigm shift: cognitive surgery. Innovative Surgical Sciences, 2(3), 139–143. doi.org/10.1515/iss-2017-0012. 26. Vercauteren, T., Unberath, M., Padoy, N., & Navab, N. (2020). CAI4CAI: The Rise of Contextual Artificial Intelligence in Computer Assisted Interventions. Proceedings of the IEEE, 108(1), 198–214. doi.org/10.1109/JPROC.2019.2946993. 27. Obermeyer, Z., & Emanuel, E. J. (2016). Predicting the Future — Big Data, Machine Learning, and Clinical Medicine. New England Journal of Medicine, 375(13), 1216–1219. doi.org/10.1056/NEJMp1606181. 28. Cozzani, M., Sadri, D., Nucci, L., Jamilian, P., Pirhadirad, A. P., & Jamilian, A. (2020). The effect of Alexander, Gianelly, Roth, and MBT bracket systems on anterior retraction: a 3-dimensional finite element study. Clinical Oral Investigations, 24(3), 1351–1357. doi.org/10.1007/s00784-019-03016-6. 29. Abdalla-Aslan, R., Yeshua, T., Kabla, D., Leichter, I., & Nadler, C. (2020). An artificial intelligence system using machine-learning for automatic detection and classification of dental restorations in panoramic radiography. Oral Surgery, Oral Medicine, Oral Pathology and Oral Radiology, 130(5), 593–602. doi.org/10.1016/j.oooo.2020.05.012. 30. Schwendicke, F., Samek, W., & Krois, J. (2020). Artificial Intelligence in Dentistry: Chances and Challenges. Journal of Dental Research, 99(7), 769–774. doi.org/10.1177/0022034520915714. 31. Bouchahma, M., Ben Hammouda, S., Kouki, S., Alshemaili, M., & Samara, K. (2019). An automatic dental decay treatment prediction using a deep convolutional neural network on X-ray images. 2019 IEEE/ACS 16th International Conference on Computer Systems and Applications (AICCSA), Abu Dhabi,1–4. doi.org/10.1109/AICCSA47632.2019.9035278. 32. Kuwada, C., Ariji, Y., Fukuda, M., Kise, Y., Fujita, H., Katsumata, A., & Ariji, E. (2020). Deep learning systems for detecting and classifying the presence of impacted supernumerary teeth in the maxillary incisor region on panoramic radiographs. Oral Surgery, Oral Medicine, Oral Pathology and Oral Radiology, 130(4), 464–469. doi.org/10.1016/j.oooo.2020.04.813. 33. Otani, T., Raigrodski, A. J., Mancl, L., Kanuma, I., & Rosen, J. (2015). In vitro evaluation of accuracy and precision of automated robotic tooth preparation system for porcelain laminate veneers. Journal of Prosthetic Dentistry, 114(2), 229–235. doi.org/10.1016/j.prosdent.2015.02.021. 34. Takahashi, T., Nozaki, K., Gonda, T., & Ikebe, K. (2021). A system for designing removable partial dentures using artificial intelligence. Part 1. Classification of partially edentulous arches using a convolutional neural network. Journal of Prosthodontic Research, 65(1), 115–118. doi.org/10.2186/jpr.JPOR_2019_354. 35. Patcas, R., Bernini, D. A. J., Volokitin, A., Agustsson, E., Rothe, R., & Timofte, R. (2019). Applying artificial intelligence to assess the impact of orthognathic treatment on facial attractiveness and estimated age. International Journal of Oral and Maxillofacial Surgery, 48(1), 77–83. doi.org/10.1016/j.ijom.2018.07.010. 36. Beltrán-Aguilar, E. D., Barker, L. K., Canto, M. T., Dye, B. A., Gooch, B. F., Griffin, S. O., … Wu, T. (2005). Surveillance for dental caries, dental sealants, tooth retention, edentulism, and enamel fluorosis — United States, 1988–1994 and 1999–2002. Morbidity and Mortality Weekly Report. Surveillance Summaries, 54(3), 1–43. 37. Prados-Privado, M., García Villalón, J., Martínez-Martínez, C. H., Ivorra, C., & Prados-Frutos, J. C. (2020). Dental Caries Diagnosis and Detection Using Neural Networks: A Systematic Review. Journal of Clinical Medicine, 9(11), 3579. doi.org/10.3390/jcm9113579. 38. Geetha, V., Aprameya, K. S., & Hinduja, D. M. (2020). Dental caries diagnosis in digital radiographs using back-propagation neural network. Health Information Science and Systems, 8(1), 8. doi.org/10.1007/s13755-019-0096-y. 39. LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444. doi.org/10.1038/ nature14539. 40. Niazi, M. K. K., Parwani, A. V., & Gurcan, M. N. (2019). Digital pathology and artificial intelligence. The Lancet. Oncology, 20(5), e253–e261. doi.org/10.1016/S1470-2045(19)30154-8. 41. Albayrak, A., & Bilgin, G. (2016). Mitosis detection using convolutional neural network-based features. In Proceedings of the IEEE Seventh International Symposium on Computational Intelligence and Informatics (CINTI). doi.org/10.1109/CINTI.2016.7846429. 42. Anthimopoulos, M., Christodoulidis, S., Ebner, L., Christe, A., & Mougiakakou, S. (2016). Lung Pattern Classification for Interstitial Lung Diseases Using a Deep Convolutional Neural Network. IEEE Transactions on Medical Imaging, 35(5), 1207–1216. doi.org/10.1109/TMI.2016.2535865. 43. Wang, X., Yang, W., Weinreb, J., Han, J., Li, Q., Kong, X., … Wang, L. (2017). Searching for prostate cancer by fully automated magnetic resonance imaging classification: deep learning versus non-deep learning. Scientific Reports, 7(1), 15415. doi.org/10.1038/s41598-017-15720-y. 44. Jiang, Y., Liang, X., Wang, W., Chen, C., Yuan, Q., Zhang, X., … Li, R. (2021). Noninvasive Prediction of Occult Peritoneal Metastasis in Gastric Cancer Using Deep Learning. JAMA Network Open, 4(1), e2032269. doi.org/10.1001/jamanetworkopen.2020.32269. 45. McKinney, S. M., Sieniek, M., Godbole, V., Godwin, J., Antropova, N., Ashrafian, H., … Shetty, S. (2020). International evaluation of an AI system for breast cancer screening. Nature, 577(7788), 89–94. doi.org/10.1038/s41586-019-1799-6. Адреса для листування: Correspondence: Коментарів немає » Додати свій |
||
Leave a comment