このページは機械翻訳を使用して翻訳されました。
翻訳品質のアンケートに 1 分ご協力ください。
病理診断を支えるディープラーニング モデルの開発
著者 Ong Kok Haur 氏、Laurent Gole 氏、Huo Xinmi 氏、Li Longjie 氏、Lu Haoda 氏、Yuen Cheng Xiang 氏、Aisha Peng 氏、Yu Weimiao 氏、Bioinformatics Institute
男性で2番目に多い疾患である前立腺がんは、通常、組織サンプルの検査によって診断されます。このプロセスは、従来は専門の病理学者が顕微鏡を使用して行っていましたが、非常に手間がかかり、時間がかかります。さらに、多くの国では、特に臨床業務量が多い場合には、そのような検査を行うことができる病理学者などの医療専門家の数が限られています。これにより、分析しなければならないサンプルが滞留し、治療の開始が遅れる可能性があります。
手作業によるサンプル分析の限界もあって、前立腺がんやその他のがんの病理診断を支援するための AI とディープラーニングの利用に関する研究が急速に拡大しています。しかし、ディープラーニング モデルの開発、最適化、検証を行い、臨床アプリケーションに展開する前に、いくつかの技術的なハードルをクリアする必要があります。たとえば、デジタル病理画像の約 15% に、フォーカス、彩度、アーティファクトなどに関連する品質問題の発生が予想されます。さらに、画像の品質は肉眼では定量的に評価できず、現在使用されている全スライド画像 (WSI) スキャナーは非常に大きなデータセットを生成するため、85,000 × 40,000 ピクセル以上の高解像度画像では画像処理が複雑になる可能性があります。さらに、手動の病理診断と同様に、画像に注釈を付けるプロセスは経験豊富な病理学者でもかなりの時間を要します。このプロセスでは、正確な診断モデルに学習させるためのラベル付けされた画像の高品質なデータベースを組み立てることが困難になります。
A*STAR のBioinformatics Institute (BII) のComputational Digital Pathology Lab (CDPL) は、ディープラーニング支援による病理診断に関連する多くの課題に対処するクラウドベースの自動化プラットフォームを開発し、病理学者の画像ラベル付けと臨床診断の負担を軽減しました (図 1)。このプラットフォームには、MATLAB® で Deep Learning Toolbox™ と Image Processing Toolbox™ を用いて開発された、完全自動の画像品質評価ツールであるA!MagQC が含まれています。このプラットフォームには、グリーソンパターンを識別するように学習させたディープラーニング分類モデルも含まれています。国内外の病理学者との実験では、このプラットフォームにより、手動による注釈付けや従来の顕微鏡検査と比較して、画像のラベル付け時間が 60% 短縮され、病理学者は従来の顕微鏡検査と同じ精度を維持しながら、画像を 43% 速く分析できるようになりました。
画像品質評価
デジタル病理学では、画像品質の問題は、組織サンプルの準備の問題とスキャンの問題の 2 つのカテゴリに大別できます (図 2)。組織の裂傷、折り目、気泡、染色過多、染色不足は最初のカテゴリに分類されます。これらの問題が検出され、診断に影響を与える場合は、新しいサンプルを準備する必要があります。一方、画像のコントラスト、彩度、フォーカスの問題が検出された場合は、既存のサンプルを再スキャンするだけでよく、再カットは必要ありません。
分析が病理学者によって行われるか、ディープラーニング モデルを介して行われるかにかかわらず、これらの一般的な問題はいずれも悪影響を及ぼす可能性があります。そのため、A*STAR の BII CDPL チームは、画像品質に影響を与える主な要因を自動的に検出する画像処理アルゴリズムを A!MagQC で開発しました。チームがMATLAB を選択したのは、それが提供する特殊なツールボックスのためでした。たとえば、画像が大きすぎてメモリに読み込めない場合、Image Processing Toolbox の blockproc 関数を使用することで、各画像を指定されたサイズのブロックに分割し、1 ブロックずつ処理してから、結果を出力画像として組み立てることができます。
チームはまた、 MATLABツールを使用して A!MagQC ユーザー インターフェイスを構築し、 MATLABコードを配布用のスタンドアロン A!MagQC 実行可能ファイルにコンパイルしました。
開発された QC ソリューションを使用して、チームは画像品質を定量化し、WSI の色、明るさ、コントラストのばらつきを識別しました。この演習により、その後学習させたディープラーニング モデルが、現在使用されているさまざまなスキャナーに対して正確な診断結果を生成することが保証されました。
モデルの学習と検証
病理学者はサンプルを分析する際に、前立腺がん特有のグリーソン分類システムを適用し、その外観に基づいてスコアを割り当てます。正常または良性の組織以外にも、サンプルには以下の領域が含まれる場合があります。 間質 (結合組織) または、グリーソンスコアで 1 から 5 に分類される組織が含まれることがあります。5が最も悪性度が高いことを示します (図3)。チームが組織サンプルを分類するための AI 診断モデルの学習を開始する前に、これらのカテゴリでラベル付けされた画像パッチのデータセットを組み立てる必要がありました。このタスクは、A!MagQC を使用して品質がチェックされた画像を処理する A!HistoClouds を使用する病理学者の協力を得て完了しました。チームはラベル付けされた画像パッチの基本セットを入手した後、個々の画像を垂直または水平に反転し、ランダムまたは指定した角度で回転させることにより、データ拡張を実行して学習セットを拡張しました。
チームは、MATLAB の Deep Learning Toolbox を使用して、ResNet-50、VGG-16、NasNet-Mobile の事前学習済みネットワークを使用してディープラーニング モデル構造を作成し、通常の分類レイヤーを重み付け分類レイヤーに置き換えました (図 4)。チームは、ディープラーニング モデルの学習用に単一の GPU から複数の GPU に拡張する multi-gpu オプションも使用しました。
モデルは反復的なプロセスを通じて学習させてから、適用されます。手作業でラベル付けされた画像に対する初期学習の最初の段階に続いて、病理学者が学習させたモデルによって生成された予測を確認して修正する、半自動の第 2 段階が続きます (図 5)。この第 2 段階は、モデルが医療専門家によって展開され、臨床診断を支援する準備ができるまで繰り返されます。ステップ (a) では、ジュニアレベルとシニアレベルの病理学者の両方による最初の手作業による注釈付けが必要です。注釈は A!HistoClouds を使用して行われ、ディープラーニング モデルの学習に使用されるパッチとして抽出されます。このモデルは、病理学者を支援するために予測された関心領域 (ROI) を出力します。そのため、半自動注釈と呼ばれます。ステップ (b) では、モデルは増分学習を受け、AI が予測した ROI が病理学者によって確認および修正され、ROI がパッチとして抽出され、モデルはこの新しいデータから学習します。ステップ (b) は、モデルのパフォーマンスが収束するまで繰り返され、ステップ (c) では、モデルが展開され、病理学者の意思決定を促進する完全自動注釈/完全自動診断が実現されます。
次のステップ
CDPL はその後、ディープラーニングを活用した病理診断プラットフォームをグローバル クラウド プラットフォームに展開し、さまざまな国で働く病理学者チームが簡単にアクセスできるようにしました。A*STAR の BII は現在、さまざまな組織の厚さ、染色メカニズム、画像スキャナーなどの追加の臨床シナリオ向けにディープラーニング モデルの検証と最適化に取り組んでいます。最後に、BII は、同じ画像品質評価とディープラーニング ワークフローを前立腺がんだけでなく他の種類のがんにも拡張する機会を模索しています。
BII の CDPL は、 Automated Gleason Grading Challenge 2022 (AGGC 2022) も主催しました。これは、2022年の International Conference on Medical Image Computing and Computer Assisted Intervention により承認されました。AGGC 2022 は、前立腺がんのグリーソン分類、デジタル病理学の活用、ディープラーニング アプローチにおける課題の解決に重点を置いています。このチャレンジは、実世界の変動を含む H&E 染色された前立腺組織病理画像に対して、高精度な自動化アルゴリズムを開発することを目的としています。注目すべきは、これが、画像の変動を調査し、一般化可能な AI 診断モデルを構築するデジタル病理学の分野における初のチャレンジであるということです。
このチャレンジは終了しましたが、 完全なデータセット は今後の研究のために利用することができます。
謝辞
A*STAR の BII は、国立大学病院 (NUH) の方々、特に Tan Soo Yong 教授、Susan Hue Swee Shan 博士、Lau Kah Weng 博士、Tan Char Loo 博士に、多大なるご協力を賜りましたことに感謝の意を表します。NUH は、本稿の研究にご提供いただいたデータとサンプルの提供元として正式に認められています。ご支援を賜りました他の臨床および産業パートナーの方々にも、チーム一同より感謝申し上げます。
公開年 2024