قدّم فريق من Hong Kong University of Science and Technology نظاماً باسم PRET، اختصاراً لـ Pan-cancer Recognition without Example Training، ونُشرت نتائجه في Nature Cancer. الخبر ليس مجرد نموذج آخر يضيف رقماً جديداً إلى جدول الـ AUC. النقطة التي تهم الباثولوجي هنا هي طريقة استخدام النموذج: مهمة جديدة، عدد قليل من الشرائح المعلّمة، ولا حاجة إلى fine-tuning خاص بكل سرطان أو بكل diagnostic task.
الفكرة مأخوذة من in-context learning في نماذج اللغة، لكنها نُقلت إلى تحليل WSI. بدلاً من تدريب نموذج منفصل أو إعادة ضبط نموذج أساس على آلاف الصور، يستخدم PRET بين شريحة واحدة وثماني شرائح annotated كمرجع أثناء inference. بعدها ينفذ مهام مثل cancer screening، tumor subtyping، وtumor segmentation ضمن إطار واحد.
هذا التفصيل مهم عملياً. كثير من نماذج pathology AI تبدو قوية داخل بيانات التطوير، ثم تبدأ الأسئلة الصعبة عند نقلها إلى مختبر آخر: scanner مختلف، staining مختلف، case mix مختلف، ومجموعة مرضى لا تشبه مجموعة التدريب. إذا كان النموذج يحتاج إلى دورة تدريب جديدة لكل task، يصبح عبء التشغيل قريباً من عبء التطوير. PRET يحاول كسر هذه الحلقة بتقليل الاعتماد على البيانات الضخمة والتدريب المتكرر.
بحسب التقرير، اختُبر النظام على 23 benchmark dataset من مؤسسات في الصين والولايات المتحدة وهولندا، وغطت التجارب 18 نوعاً من السرطان وعدة مهام تشخيصية. تفوق PRET على الطرق السابقة في 20 مهمة، وتجاوز AUC حاجز 97% في 15 مهمة. هذه أرقام قوية، لكنها تبقى أرقام benchmark. قيمتها الحقيقية تظهر عندما نقرأها بجانب تصميم النموذج وعدد الأمثلة المطلوبة.
النتيجة الأكثر وضوحاً للباثولوجيين جاءت في كشف نقائل العقد اللمفاوية. باستخدام ثماني شرائح فقط كأمثلة، وصل PRET إلى AUC يقارب 98.71%. في المقارنة نفسها، كان متوسط أداء 11 باثولوجياً قريباً من AUC 81%. لا يصح تحويل هذا الرقم إلى عنوان مبسط من نوع أن النموذج “أفضل من الباثولوجيين” في كل شيء. المهمة محددة، والمقارنة لها شروطها، والـ AUC لا يلخص كل ما يحدث في sign-out اليومي. لكنه رقم لا يمكن تجاهله.
ما يثير الاهتمام أكثر من التفوق في مهمة واحدة هو ادعاء التعميم عبر سرطانات ومراكز مختلفة. إذا استطاع نموذج واحد التعامل مع screening وsubtyping وsegmentation من خلال أمثلة قليلة، فقد نكون أمام شكل أقرب إلى “أداة تكيفية” داخل المختبر، لا مجرد classifier مغلق. هذا الفرق جوهري في بيئات لا تملك فرق machine learning داخلية، أو لا تستطيع بناء datasets كبيرة لكل سؤال تشخيصي.
مع ذلك، الطريق إلى الاستخدام السريري لا يبدأ من رقم AUC وينتهي عنده. المختبر يحتاج معرفة أداء النموذج على الحالات الحدودية، وعلى artefacts، وعلى اختلافات fixation وsection thickness وstaining. يحتاج أيضاً إلى قراءة أداء النموذج عند انخفاض جودة العينة، وعند وجود mixed patterns، وعند الحالات التي لا تشبه الأمثلة الثمانية التي أعطيت له. هذه ليست تفاصيل ثانوية، بل هي المكان الذي يتحدد فيه الفرق بين نموذج ناجح في الورقة البحثية ونظام يمكن الوثوق به في workflow حقيقي.
هناك سؤال آخر للباثولوجي: كيف ستُعرض النتيجة؟ إذا كان PRET سيستخدم في lymph node metastasis detection مثلاً، فهل يقدم heatmap قابلة للمراجعة؟ هل يحدد مناطق الشك بطريقة تساعد الفحص، أم يضيف طبقة جديدة من الإنذارات غير الضرورية؟ وهل سيحافظ على الحساسية العالية من دون رفع عدد false positives إلى مستوى يبطئ العمل؟ هذه الأسئلة تحدد القيمة العملية أكثر من اسم التقنية المستخدمة.
الجانب الإيجابي في PRET أنه يوجّه النقاش نحو مشكلة حقيقية في الباثولوجي الرقمي: كيف نبني AI لا يحتاج إلى إعادة تصنيع كاملة عند كل استعمال جديد. في المختبرات ذات الموارد المحدودة، هذا قد يكون الفرق بين نظام قابل للتجربة ونظام يبقى خارج الاستخدام. وفي المراكز الكبيرة، قد يقلل زمن نقل النموذج من research إلى validation داخلية.
الخلاصة أن PRET لا ينبغي أن يُقرأ كبديل عن الباثولوجي، ولا كدليل نهائي على جاهزية in-context learning للـ sign-out. القراءة الأدق أنه نموذج يضغط واحدة من أكبر كلف pathology AI: كلفة البيانات المعلّمة والتدريب المتكرر. إذا ثبت هذا الاتجاه في cohorts خارجية، وبشروط تشغيل قريبة من المختبر اليومي، فقد يصبح in-context learning أحد المسارات العملية لجعل AI pathology أقل اعتماداً على إعادة التدريب وأكثر قدرة على التكيف.
المصدر: Pathology News