<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>医療ビッグデータ研究センター</title>
    <description>Innovation of Diagnosis through Information Technology, Cloud Platform and AI Image Analysis of Medical Bigdata</description>
    <link>http://research.nii.ac.jp/rc4mb/</link>
    <atom:link href="http://research.nii.ac.jp/rc4mb/feed.xml" rel="self" type="application/rss+xml"/>
    <pubDate>Sun, 06 Jul 2025 20:00:22 +0900</pubDate>
    <lastBuildDate>Sun, 06 Jul 2025 20:00:22 +0900</lastBuildDate>
    <generator>Jekyll v4.2.2</generator>
    
      <item>
        <title>SIP3 - Strategic Innovation Promotion Program Third Phase</title>
        <description>&lt;p&gt;&lt;a href=&quot;https://www8.cao.go.jp/cstp/gaiyo/sip/index.html&quot; target=&quot;_blank&quot;&gt;戦略的イノベーション創造プログラム (SIP)&lt;/a&gt; は&lt;a href=&quot;https://www.cao.go.jp/&quot; target=&quot;_blank&quot;&gt;内閣府&lt;/a&gt;が施行する国の科学技術政策のひとつで、将来のSociety5.0の実現に向けて社会的課題の解決や日本の経済、産業競争力にとって重要な課題を設定し、基礎研究から社会実装までを一体として研究開発を推進するものです。&lt;a href=&quot;https://www8.cao.go.jp/cstp/index.html&quot; target=&quot;_blank&quot;&gt;総合科学技術・イノベーション会議 (CSTI)&lt;/a&gt; の審議に基づき、プログラムディレクターや予算配分をトップダウンで決定しています。2014年度 (平成26年度) に第1期が11課題で開始され、2023年度 (令和5年度) からは&lt;a href=&quot;https://www8.cao.go.jp/cstp/gaiyo/sip/sip3rd_list.html&quot; target=&quot;_blank&quot;&gt;第3期 (SIP3)&lt;/a&gt; の14課題が進行中です。NII RCMBでは、SIP3の課題の一つ、&lt;a href=&quot;https://sip3.jihs.go.jp/index.html&quot; target=&quot;_blank&quot;&gt;&lt;b&gt;統合型ヘルスケアシステムの構築&lt;/b&gt;&lt;/a&gt;に初年度より参加しています。&lt;/p&gt;

&lt;h3 id=&quot;研究開発の背景と目的&quot;&gt;研究開発の背景と目的&lt;/h3&gt;

&lt;p&gt;&lt;b&gt;統合型ヘルスケアシステムの構築&lt;/b&gt;は、Society 5.0の中核となるサイバー空間とフィジカル空間の高度な融合を医療分野で実現する医療デジタルツインの達成とその活用を目標としています。医療デジタルツインは、&lt;/p&gt;
&lt;dl&gt;
&lt;dt&gt;1. 新たな知識の発見&lt;/dt&gt;
&lt;dt&gt;2. 医療現場・患者さんの支援&lt;/dt&gt;
&lt;dt&gt;3. 地域医療&lt;/dt&gt;
&lt;/dl&gt;
&lt;p&gt;の3つの目的のために健康や医療に関するフィジカルな情報をデジタル空間に移行し、個人や集団の特徴を機械学習で分析、可視化します。ここで扱うフィジカルな情報とは、個人の健康そのものに関わる情報です。&lt;br /&gt;&lt;/p&gt;

&lt;p&gt;日本の国民皆保険制度は、全ての国民が公的医療保険に加入し、必要な医療を低い自己負担額で誰でも受けることのできるとても優れた医療制度です。この制度のもとでは、全ての国民の医療費請求にかかる診療報酬についてはその記録が保険組合などに集約されます。しかし、その診療の内容、たとえば診療記録 (カルテ) や画像診断、検査などの医療情報は、それぞれの医療機関に分散して保持されます。さらに、その記録フォーマットは医療機関ごとにさまざまで、医療情報の統合や活用は容易ではありません。&lt;/p&gt;

&lt;p&gt;このような現状に対応して医療デジタルツインを実現するために、本課題の実施にあたっては&lt;a href=&quot;https://sip3.jihs.go.jp/research/detail/sub_themes.html&quot; target=&quot;_blank&quot;&gt;5つのサブ課題&lt;/a&gt;に分けています。&lt;/p&gt;
&lt;dl&gt;
&lt;dt&gt;サブ課題A: 研究開発支援・知識発見ソリューションの開発&lt;/dt&gt;
&lt;dt&gt;サブ課題B: 患者・医療機関支援ソリューションの開発&lt;/dt&gt;
&lt;dt&gt;サブ課題C: 地方自治体・医療介護政策支援ソリューションの開発&lt;/dt&gt;
&lt;dt&gt;サブ課題D: デジタルツインのための先進的医療情報システム基盤の開発&lt;/dt&gt;
&lt;dt&gt;サブ課題E: 大容量医療データ解析基盤技術の開発&lt;/dt&gt;
&lt;/dl&gt;
&lt;p&gt;サブ課題A、B、Cは事業を、サブ課題D、Eは技術開発を担い、それぞれのサブ課題が密に連携して医療デジタルツインの実現を目指しています。&lt;br /&gt;&lt;/p&gt;

&lt;h3 id=&quot;研究開発の概要&quot;&gt;研究開発の概要&lt;/h3&gt;

&lt;p&gt;RCMBは、サブ課題Eのひとつ、&lt;a href=&quot;https://sites.google.com/nii.ac.jp/sip3e-2/&quot; target=&quot;_blank&quot;&gt;&lt;b&gt;E-2 大規模医療文書・画像の高精度解析基盤技術の開発&lt;/b&gt;&lt;/a&gt;に参加しています。これまでの画像を使った医療支援AIは、シングルショットの画像のみから病変などの検出を行っていました。これを、時系列の複数の画像や所見文などの他のモダリティを加えた高次元のものとすることで、より精細で緻密な医療支援を行うAIモデルの作成が可能です。このようなAIモデルは、医療デジタルツインを実現するうえで核となります。E-2は医療文書を扱う言語処理チームと医療画像を扱う画像解析ームにさらに分かれており (サブテーマ)、RCMBは画像解析チーム (サブテーマ2) においてデータと解析の基盤整備を担当しています (サブテーマ2a)。&lt;/p&gt;
&lt;dl&gt;
&lt;dt&gt;サブテーマ1: 大規模医療文書の高精度解析基盤技術の開発&lt;/dt&gt;
&lt;dt&gt;    1a. 医療言語モデル構築技術の開発&lt;/dt&gt;
&lt;dt&gt;    1b. 大規模医療文書構造化技術の開発&lt;/dt&gt;
&lt;dt&gt;    1c. 大規模医療文書要約技術の開発&lt;/dt&gt;
&lt;br /&gt;
&lt;dt&gt;サブテーマ2: 大規模医療画像の高精度解析基盤技術の開発&lt;/dt&gt;
&lt;dt&gt;    2a. 医療画像に基づく経時変化解析のための学習データセット整備技術&lt;/dt&gt;
&lt;dt&gt;    2b. 病変部の自動認識・追跡・計測&lt;/dt&gt;
&lt;dt&gt;    2c. 医療画像・所見文融合モデル研究&lt;/dt&gt;
&lt;/dl&gt;
&lt;p&gt;サブテーマ2は、時間をおいて撮影した医療画像から経時変化を解析、検出する技術の研究開発を目標としています。さらに、所見文を自然言語処理によって構造化し、画像と所見文を融合したモデルを構築します。このような融合モデルを利用すれば、病変の経時変化を数値や文章で表現することが可能となり、画像診断に携わる読影医や臨床医の負担を軽減する医療AIを作ることができます。&lt;/p&gt;

&lt;p&gt;&lt;img src=&quot;/rc4mb/assets/sip3/lung_Xray-findings.RGB.png&quot; alt=&quot;SIP3 E-2 Lung CT and Findings&quot; /&gt;
&lt;small&gt;&lt;strong&gt;付図説明&lt;/strong&gt; – 時間をおいて撮影した肺のX線CT画像を解析し、病変部の時系列変化を捉えるAIモデルを作成する。さらに、画像に付随する所見文を解析、構造化し、病変の経時変化と合わせて融合モデルを構築する。このような多次元モデルを可能とする学習データの収集や格納、解析する基盤を整備、運用する。&lt;br /&gt;
&lt;/small&gt;&lt;/p&gt;

&lt;p&gt;固形がんの治療効果を判定する評価基準に&lt;a href=&quot;https://jcog.jp/doctor/tool/recistv11/&quot; target=&quot;_blank&quot;&gt;RECIST (Response Evaluation Criteria in Solid Tumors)&lt;/a&gt; があります。治療開始前にX線CT画像などで腫瘍の大きさなどを計測し、治療経過中の腫瘍の大きさの変化などを経時的に追跡します。腫瘍病変を自動で認識し、その経時変化を大きさの数値や所見文で出力できる融合モデルは、RECISTを支援する強力なツールとなる可能性があります。&lt;/p&gt;

&lt;p&gt;&lt;img src=&quot;/rc4mb/assets/sip3/recist_assist.RGB.png&quot; alt=&quot;SIP3 E-2 Lung RECIST&quot; /&gt;
&lt;small&gt;&lt;strong&gt;付図説明&lt;/strong&gt; – 肺のX線CT画像を解析し、病変部を自動で認識する。腫瘍の大きさを経時的に計測して数値で出力し、さらに病変部に関する所見を提示することで、RECISTを支援する。&lt;br /&gt;
&lt;/small&gt;&lt;/p&gt;

&lt;p&gt;E-2の詳細な研究体制や内容、成果については、E-2のウェブページ &lt;a href=&quot;https://sites.google.com/nii.ac.jp/sip3e-2/&quot; target=&quot;_blank&quot;&gt;&lt;b&gt;E-2 大規模医療文書・画像の高精度解析基盤技術の開発&lt;/b&gt; (https://sites.google.com/nii.ac.jp/sip3e-2/)&lt;/a&gt; をご覧ください。&lt;/p&gt;

&lt;h3 id=&quot;update&quot;&gt;Update&lt;/h3&gt;

&lt;p&gt;令和5年度補正予算の措置により、SIP3「統合型ヘルスケアシステムの構築における生成AIの活用 (生成AI課題)」が2025年度 (令和6年度) に実施されました。これは、大規模言語モデル (LLM) に代表される生成AIの急速な進展と普及に鑑み、日本語による医療LLMの整備と、画像等の言語以外のモダリティをLLMと組み合わせた大規模マルチモーダルモデル (LMM) の研究開発を迅速に進めることを目的としていました。&lt;/p&gt;

&lt;p&gt;補正予算措置の終了にともない、この生成AI課題のいくつかの研究テーマが継続課題として本課題に収載されました。2025年度より、E-2には二つのサブテーマ (サブテーマ3、4) が新たに加わりました。&lt;/p&gt;

&lt;dl&gt;
&lt;dt&gt;サブテーマ1: 大規模医療文書の高精度解析基盤技術の開発&lt;/dt&gt;
&lt;dt&gt;サブテーマ2: 大規模医療画像の高精度解析基盤技術の開発&lt;/dt&gt;
&lt;dt&gt;&lt;u&gt;サブテーマ3: LLM/LMMを用いた包括的な画像診断のレポーティング支援システムの構築&lt;/u&gt;&lt;/dt&gt;
&lt;dt&gt;&lt;u&gt;サブテーマ4: 医療LLM/LMM利活用を促進する医療データ基盤開発と運用&lt;/u&gt;&lt;/dt&gt;
&lt;/dl&gt;

&lt;p&gt;First published on 4 July 2025&lt;br /&gt;
Updated on 7 July 2025&lt;/p&gt;

</description>
        <pubDate>Fri, 04 Jul 2025 09:00:00 +0900</pubDate>
        <link>http://research.nii.ac.jp/rc4mb/news/2025/07/04/SIP3E2.html</link>
        <guid isPermaLink="true">http://research.nii.ac.jp/rc4mb/news/2025/07/04/SIP3E2.html</guid>
        
        <category>news</category>
        
        <category>activities</category>
        
        <category>nict</category>
        
        
        <category>news</category>
        
      </item>
    
      <item>
        <title>AI model for metabolic syndrome estimation</title>
        <description>&lt;p&gt;&lt;a href=&quot;https://www.nichigan.or.jp&quot; target=&quot;_blank&quot;&gt;日本眼科学会&lt;/a&gt;と名古屋大学、国立情報学研究所は、学会主導データベース「&lt;a href=&quot;http://www.joir.jp/&quot; target=&quot;_blank&quot;&gt;Japan Ocular Imaging Registry: JOIR&lt;/a&gt;」で収集された画像データを利用し、眼底写真から血圧や血糖値、BMIを推定するAIを研究開発してそのモデルを無償公開しました。このAIモデルを活用し、メタボリック症候群を予防する研究の一助になることが期待されます。&lt;/p&gt;

&lt;p&gt;深層学習（Deep Learning、DL）では、学習の条件を変えることで、同じ学習データであっても異なる機能をAIに持たせることができます。このような機能の一つに、肉眼では検出できなかった画像上の未知の特徴を認識することがあります。未知の特徴には画像が撮影された個人の状態も含まれ、例えば眼内の光を感じる部分である網膜を撮影した眼底写真からは、&lt;a href=&quot;https://www.nii.ac.jp/news/release/2023/0110.html&quot; target=&quot;_blank&quot;&gt;年齢&lt;/a&gt;や&lt;a href=&quot;https://www.nii.ac.jp/news/release/2023/1207.html&quot; target=&quot;_blank&quot;&gt;性別&lt;/a&gt;を推定することが可能です。&lt;/p&gt;

&lt;p&gt;&lt;a href=&quot;https://www.amed.go.jp&quot; target=&quot;_blank&quot;&gt;日本医療研究開発機構（AMED）&lt;/a&gt;の支援により構築されたJOIRのデータには、眼底写真とともに本人の全身状況や生活習慣をあらわす数値も含まれているものが多数あります。今回研究開発したAIモデルは、血圧（収縮期と拡張期）、血糖値、腹囲、BMIの真値が付与された17〜94歳の眼底写真約13万枚を学習データとし、眼底画像からDLを用いて値の推定を行うものです。これまでのモデル開発において&lt;a href=&quot;https://arxiv.org/abs/1905.11946&quot; target=&quot;_blank&quot;&gt;EfficientNet-B7&lt;/a&gt;が高い精度を示していたことから、今回もEfficientNet-B7をDLに用いました。その結果、160万以上の眼底画像データを用いて開発された既報のAIモデル（&lt;a href=&quot;https://doi.org/10.1038/s41551-018-0195-0&quot;&gt;Ryan P. et al., Nature Biomed. Eng., 2, 2018&lt;/a&gt;）に匹敵する性能を10分の一以下の学習データで実現しました。今回開発した眼底画像からの血圧（収縮期と拡張期）、血糖値、腹囲、BMIの推定AIモデルを公開します。公開したAIの詳細はJOIRの&lt;a href=&quot;http://www.joir.jp/data/index.html&quot; target=&quot;_blank&quot;&gt;Japan Ocular Imaging Registryで収集されたデータを用いて作成した推定モデル&lt;/a&gt;をご参照ください。&lt;/p&gt;

&lt;p&gt;今回開発したAIモデルは、眼底画像から血圧・血糖値・腹囲・BMIといった代謝関連指標を一定の精度で推定できることを示しており、研究者にとって新たな視点でメタボリック症候群のリスク評価を行う手段として活用されることが期待されます。これにより、生活習慣病の予防医学の分野における基礎研究や疫学研究の進展が促されるとともに、動脈硬化などの疾患予測に関する知見が深まる可能性があります。将来的には、こうしたAI技術が健診や遠隔医療の現場に導入され、非侵襲的かつ簡便な方法で個人の健康リスクを可視化することができるようになるかもしれません。&lt;/p&gt;

&lt;p&gt;国立情報学研究所プレスリリース &lt;a href=&quot;https://www.nii.ac.jp/news/release/2025/0512.html&quot; target=&quot;_blank&quot;&gt;https://www.nii.ac.jp/news/release/2025/0512.html&lt;/a&gt;&lt;/p&gt;

</description>
        <pubDate>Tue, 13 May 2025 09:00:00 +0900</pubDate>
        <link>http://research.nii.ac.jp/rc4mb/news/2025/05/13/model-open3rd.html</link>
        <guid isPermaLink="true">http://research.nii.ac.jp/rc4mb/news/2025/05/13/model-open3rd.html</guid>
        
        <category>news</category>
        
        
        <category>news</category>
        
      </item>
    
      <item>
        <title>LMM for radiological comparison</title>
        <description>&lt;p&gt;&lt;a href=&quot;http://www.suenaga.cse.nagoya-u.ac.jp/wiki/index.php?Mori%20Laboratory&quot; target=&quot;_blank&quot;&gt;名古屋大学大学院森研究室&lt;/a&gt;（教授　森健策、准教授　小田昌宏、博士後期課程学生 Nguyen Cong Khang）と国立情報学研究所RCMBは、3次元X線CT画像から基盤モデルを作成し、さらに大規模言語モデル (LLM) と組み合わせてCT画像を比較読影した所見文を出力する大規模マルチモーダルモデル (LMM) を研究開発しました。このLMMは、経過観察のために時間をおいて撮影した二つのCT画像を読込んで解析し、それらを比較してどの臓器にどのような変化があるのか、あるいは変化がないのかを報告する所見文を生成します。これは、これまで放射線科医しかできなかった経過観察を支援し、より迅速で精確な読影所見の記述や病変の定量評価の実現につながるものです。&lt;/p&gt;

&lt;p&gt;医療行為はさまざまな症状や画像、検査結果などを統合して処理・認識し、所見文の記載と共に診断することが最初に求められます。このような知的活動は知識と経験を有する医師のみが可能で、これまでの医療AIは単一モダリティの医療画像などから疾患の有無や種類を判定するような簡単な医療支援に止まっていました。LLMを言語以外の他のモダリティ、例えば画像と組み合わせたLMMを用いると、画像内容の説明を文章で出力する、逆に、文章で指示した内容を画像として描画することが可能です。こうした異なる文章を含むモダリティを統合して処理・認識することは知性の核であり、LMMは人間の知的活動に類するものを機械が獲得する第一歩と言えます。医療文書に関するLLMをベースにして画像認識などを組み合わせたLMMを実現することで、根拠となる所見を文章で示しつつ診断を示唆する、いわば医師の知的活動を支援する医療AIを実現することができます。&lt;/p&gt;

&lt;p&gt;このLMMにおいては、二つの3次元CT画像 （人体の断面画像を積み重ねたもの）を、画像特徴を表現するトークンへと3D Vision Encoderを用いて変換します。そして、所見文の出力を命令する命令文のトークンも併せてLLMに入力することで経時変化の所見文を出力します。このLMMを実現するために、国立情報学研究所と&lt;a href=&quot;https://www.radiology.jp&quot; target=&quot;_blank&quot;&gt;日本医学放射線学会&lt;/a&gt;が構築を進めてきたX線CT画像データベース&lt;a href=&quot;https://www.radiology.jp/j-mid/&quot; target=&quot;_blank&quot;&gt;J-MID&lt;/a&gt;を利用して、生成AIの学習を名古屋大学にて行いました。名古屋大学は、国立情報学研究所が管理する画像データベースに接続し、本研究で開発された生成AIモデルの学習処理を行いました。&lt;/p&gt;

&lt;p&gt;国立情報学研究所プレスリリース &lt;a href=&quot;https://www.nii.ac.jp/news/release/2025/0424.html&quot; target=&quot;_blank&quot;&gt;https://www.nii.ac.jp/news/release/2025/0424.html&lt;/a&gt;
&lt;br /&gt;
名古屋大学プレスリリース &lt;a href=&quot;https://www.nagoya-u.ac.jp/researchinfo/result/2025/04/ctai.html&quot; target=&quot;_blank&quot;&gt;https://www.nagoya-u.ac.jp/researchinfo/result/2025/04/ctai.html&lt;/a&gt;&lt;/p&gt;

&lt;h3 id=&quot;update&quot;&gt;Update&lt;/h3&gt;
&lt;p&gt;本成果は&lt;a href=&quot;https://www8.cao.go.jp/cstp/gaiyo/sip/sip3rd_list.html&quot; target=&quot;_blank&quot;&gt;SIP第3期&lt;/a&gt;&lt;a href=&quot;https://sip3.jihs.go.jp/news/2024/aisymposium.html&quot; target=&quot;_blank&quot;&gt;「統合型ヘルスケアシステムの構築における生成AIの活用」公開シンポジウム（2025年4月30日に開催）&lt;/a&gt;にて、デモンストレーション発表しました。&lt;/p&gt;

</description>
        <pubDate>Fri, 25 Apr 2025 09:00:00 +0900</pubDate>
        <link>http://research.nii.ac.jp/rc4mb/news/2025/04/25/nagoya-findings.html</link>
        <guid isPermaLink="true">http://research.nii.ac.jp/rc4mb/news/2025/04/25/nagoya-findings.html</guid>
        
        <category>news</category>
        
        
        <category>news</category>
        
      </item>
    
      <item>
        <title>AI model for biological sex estimation</title>
        <description>&lt;p&gt;日本眼科学会と国立情報学研究所は、眼底写真から性別を推定するAIを研究開発し、そのモデルを無償公開しました。&lt;/p&gt;

&lt;p&gt;ヒトの疾患にはさまざまな原因・要因が存在します。一般的に悪性腫瘍や認知症などの発症は年齢を経るとともに頻度が高くなり、生活習慣病のリスクも増加します。同じ悪性腫瘍でも骨肉腫は若年者に好発します。年齢と同じように性別 (生物学的性別 biological sex) も疾患の要因となり、発症頻度に性差のある疾患は少なくありません。たとえば、全身性の疾患である関節リウマチは女性の発症頻度は男性の約3〜4倍高く、眼科領域に限っても加齢黄斑変性症は男性の発症頻度は女性の約2〜3倍高いことが報告されています。発症や症状に性差のある疾患の病理を研究するためは、研究対象の試料に性別のラベルが付与されている必要があります。しかし、サンプリング手法やデータの匿名化などの処理によって性別ラベルがついていない試料もたくさんあります。&lt;/p&gt;

&lt;p&gt;眼底の網膜は外界からの光を受容するという特質上、体外から光学的に観察しやすい組織です。そのため、眼底写真を利用して通常では簡単には観察できない個人の状態を推定する方法が模索されてきました。年齢や性別、喫煙状況、血糖の状態などをAIで推定可能なことが明らかになっており、そこから得られる情報は眼科領域の疾患だけでなく、様々な全身の疾患を対象とした医学研究に活用できる可能性があります。しかし、これまでに報告された研究では、開発されたAIが公開されていないことから、他の研究に用いることができませんでした。&lt;/p&gt;

&lt;p&gt;そこで、&lt;a href=&quot;https://www.nichigan.or.jp&quot; target=&quot;_blank&quot;&gt;日本眼科学会&lt;/a&gt;ではNIIと共同で眼底写真から生物学的性別を精度良く推定するAIを開発し、広く医学研究に役立ててもらうために無償公開することにしました。公開したAIの詳細は&lt;a href=&quot;http://www.joir.jp/&quot; target=&quot;_blank&quot;&gt;Japan Ocular Imaging Registry (JOIR)&lt;/a&gt;の&lt;a href=&quot;http://www.joir.jp/data/index.html&quot; target=&quot;_blank&quot;&gt;眼底からの性別予測モデル&lt;/a&gt;をご参照ください。&lt;/p&gt;

&lt;p&gt;今回のAIが網膜のどのような特徴を捉えて性別を判定しているのか、現時点ではよく分かっていません。少なくとも、眼科医が網膜写真を観察しても性別を判定することはとても難しく、網膜にはこれまでに知られていない性差が器質的に備わっていることが伺えます。本AIを研究に活用することと同時に、この器質的差違を明らかにすることで、加齢黄斑変性症のように発症に性差のある眼底疾患の病理が究明されることが期待されます。&lt;/p&gt;

&lt;p&gt;国立情報学研究所プレスリリース &lt;a href=&quot;https://www.nii.ac.jp/news/release/2023/1207.html&quot; target=&quot;_blank&quot;&gt;https://www.nii.ac.jp/news/release/2023/1207.html&lt;/a&gt;&lt;/p&gt;

&lt;h3 id=&quot;update&quot;&gt;Update&lt;/h3&gt;
&lt;p&gt;&lt;a href=&quot;https://www.nii.ac.jp/en/news/release/2023/1207.html&quot; target=&quot;_blank&quot;&gt;ニュースリリースの英語版&lt;/a&gt;を発表し、EurekAlert!にて&lt;a href=&quot;https://www.eurekalert.org/news-releases/1031817&quot; target=&quot;_blank&quot;&gt;国際配信&lt;/a&gt;されました。&lt;/p&gt;

</description>
        <pubDate>Thu, 07 Dec 2023 09:00:00 +0900</pubDate>
        <link>http://research.nii.ac.jp/rc4mb/news/2023/12/07/model-open2nd.html</link>
        <guid isPermaLink="true">http://research.nii.ac.jp/rc4mb/news/2023/12/07/model-open2nd.html</guid>
        
        <category>news</category>
        
        
        <category>news</category>
        
      </item>
    
      <item>
        <title>NII Open House 2023</title>
        <description>&lt;p&gt;今年の&lt;a href=&quot;https://www.nii.ac.jp/event/openhouse/2023/&quot; target=&quot;_blank&quot;&gt;国立情報学研究所オープンハウス&lt;/a&gt;は、2019年以来4年ぶりについにリアル会場をメインとする開催となりました。例年通りRCMBも出展し、リアル会場にポスターとスライドショーを展示してオープンハウスに臨みました。&lt;/p&gt;

&lt;h3 id=&quot;nii-open-house&quot;&gt;NII Open House&lt;/h3&gt;

&lt;p&gt;毎年恒例の情報研オープンハウス、2023年は6月2日金曜日と6月3日土曜日に開催となりました。&lt;/p&gt;

&lt;p&gt;&lt;img src=&quot;/rc4mb/assets/openhouse2023/OH2023Poster.png&quot; alt=&quot;NII Open House 2023 Poster&quot; /&gt;&lt;/p&gt;

&lt;p&gt;SARS-CoV-2 (severe acute respiratory syndrome coronavirus 2, 新型コロナウイルス) が第5類指定へ移行してから最初のオープンハウス、コンピュータサイエンスパークも復活してとてもにぎやか活気にあふれた会場となりました。基調講演は、この数ヶ月でにわかに注目を集めたChatGPTを主題に選びました。くしくも、今年度から情報研所長に着任した&lt;a href=&quot;https://www.nii.ac.jp/about/introduction/director/&quot; target=&quot;_blank&quot;&gt;黒橋新所長&lt;/a&gt;の研究分野は自然言語処理であり、タイムリーな企画といえましょう。そうそう、喜連川前所長は&lt;a href=&quot;https://www.rois.ac.jp/about/message.html&quot; target=&quot;_blank&quot;&gt;情報・システム研究機構の機構長&lt;/a&gt;に就任しました。&lt;/p&gt;

&lt;fieldset&gt;
&lt;p&gt;&lt;b&gt;国立情報学研究所オープンハウス NII活動報告・基調講演&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;&lt;ul&gt;
&lt;li&gt;日時：2023年6月2日(金) 13:00-15:00&lt;/li&gt;
&lt;li&gt;形式：ハイブリッド開催&lt;/li&gt;
&lt;li&gt;場所：一橋講堂 (東京都千代田区)&lt;/li&gt;
&lt;br /&gt;
&lt;li&gt;13:00-13:20：活動報告&lt;br /&gt;
&lt;b&gt;国立情報学研究所活動報告&lt;/b&gt;&lt;br /&gt;
黒橋 禎夫  (国立情報学研究所 所長)&lt;br /&gt;
国立情報学研究所オープンハウス2023は、リアル会場をメインとしたハイブリッド形式での開催となります。オープンハウス開催にあたってのご挨拶、ならびに本研究所の取り組みを、本年新たに着任した黒橋新所長からご紹介します。&lt;/li&gt;
&lt;br /&gt;
&lt;li&gt;13:20-13:50：基調講演&lt;br /&gt;
&lt;b&gt;ChatGPTを支える技術&lt;/b&gt;&lt;br /&gt;
鈴木 潤 (東北大学データ駆動科学・AI教育研究センター 教授)&lt;br /&gt;
ChatGPT (GPT-4を含む) の詳細な構築方法は公表しないと表明されており、現時点でその全容を知ることは難しい。本講演では、公式に発表されている断片的な事実情報をベースとし、憶測は憶測と断った上で紹介しつつ、ChatGPTを支える技術の動作原理や理屈をAI関連研究者/技術者以外の方を対象としてなるべく平易に解説する。&lt;/li&gt;
&lt;br /&gt;
&lt;li&gt;13:50-14:20：基調講演&lt;br /&gt;
&lt;b&gt;Bing対話型検索とGPTモデル&lt;/b&gt;&lt;br /&gt;
鈴木 久美 (理化学研究所AIP言語情報アクセス技術チーム テクニカルアドバイザー / 元マイクロソフト対話型検索プロダクトマネージャー)&lt;br /&gt;
ChatGPTがその性能で世界を驚かせている中、今年２月マイクロソフトはGPTモデルをインターネット検索に応用したサービスを開始した。このサービスの開発にプロダクトマネージャーとしてかかわった経験から、大規模言語モデルがウェブ検索をどう変えたのか、その応用の利点と現時点での限界を具体例とともに考える。&lt;/li&gt;
&lt;br /&gt;
&lt;li&gt;14:20-14:50：基調講演&lt;br /&gt;
&lt;b&gt;生成系AIと法制度&lt;/b&gt;&lt;br /&gt;
生貝 直人 (一橋大学大学院法学研究科ビジネスロー専攻教授)&lt;br /&gt;
生成系AIの急激な進化を受け、世界各国でルール作りに向けた議論が活性化している。本講演では、生成系AIに関する法的論点を概観した上で、特に包括的なAI法制であるAI規則案の立法作業が進むEU（欧州連合）の状況を参照しながら、生成系AIに関わる法制度のあり方について考える。&lt;/li&gt;
&lt;/ul&gt;&lt;/p&gt;
&lt;/fieldset&gt;

&lt;h3 id=&quot;rcmbの発表&quot;&gt;RCMBの発表&lt;/h3&gt;

&lt;p&gt;&lt;img src=&quot;/rc4mb/assets/openhouse2023/c02_NII_Open_House_2023-portrait.png&quot; alt=&quot;NII Open House 2023 RCMB Poster&quot; /&gt;&lt;/p&gt;

&lt;p&gt;RCMBにおけるCOVID-19対応の一区切りとして、COVID-19肺炎CT画像サーベイランスについて経緯と結果を詳しく発表しました。このサーベイランスは、クラウド基盤に医療画像が付帯情報と共に毎日送られてきている環境を活用しています。クラウド基盤に医療AIを常時稼働する仮想環境を用意し、日々転送されてくるCT画像を自動で解析してCOVID-19肺炎の典型度を判定します。このプロジェクトの詳細は&lt;a href=&quot;http://research.nii.ac.jp/rc4mb/news/2022/07/28/222A03NICT2021.html&quot; target=&quot;_blank&quot;&gt;別記事&lt;/a&gt;にまとめてあります。&lt;/p&gt;

&lt;p&gt;SARS-CoV-2が第5類へ移行したことを機に、COVID-19はそれまでの全数把握から&lt;a href=&quot;https://www.mhlw.go.jp/stf/seisakunitsuite/bunya/0000115283.html&quot; target=&quot;_blank&quot;&gt;定点把握&lt;/a&gt;へと切り替わりました。全国約5,000の定点医療機関から1週間単位で報告されるCOVID-19感染者数を集計し、定点当たりの報告数を&lt;a href=&quot;https://www.niid.go.jp/niid/ja/idwr.html&quot; target=&quot;_blank&quot;&gt;毎週発表&lt;/a&gt;しています。定点把握の目的は市中感染のレベルとトレンドを知ることで、本サーベイランスと同じ目的です。サーベイランスは定点把握を補完し、日毎の感染動態を示すものとして有効です。さらに、定点把握は医療機関からの報告を必要としますが、サーベイランスは画像の自動判定をベースとするために個々の医療機関による追加の業務は発生せず、迅速で安定した結果が期待できます。今後は学習データにオミクロン株による症例を追加し、肺炎症状の変化に追随して判定精度を維持したサーベイランスシステムへと改良する予定です。&lt;/p&gt;

</description>
        <pubDate>Mon, 19 Jun 2023 09:00:00 +0900</pubDate>
        <link>http://research.nii.ac.jp/rc4mb/news/2023/06/19/openhouse2023.html</link>
        <guid isPermaLink="true">http://research.nii.ac.jp/rc4mb/news/2023/06/19/openhouse2023.html</guid>
        
        <category>news</category>
        
        <category>activities</category>
        
        
        <category>news</category>
        
      </item>
    
      <item>
        <title>Surveillance system for COVID-19 pneumoniae</title>
        <description>&lt;p&gt;国内で毎日撮影されるX線CT画像データを日々クラウド基盤へ収集・蓄積している特徴を活かし、RCMBではCOVID-19 (新型コロナウイルス感染症) パンデミック発生当初から、COVID-19肺炎のX線CT画像による医療支援AIを研究開発してきました。まず、COVID-19パンデミック発生前後のウイルス性肺炎のX線CT画像から学習用データセットを生成し、同時に、このデータセットを利用して、X線CT画像からCOVID-19肺炎を診断補助する機械学習の研究開発環境を整備してきました。&lt;/p&gt;

&lt;p&gt;NIIニュースリリース 2020年9月28日&lt;/p&gt;

&lt;p&gt;&lt;a href=&quot;https://www.nii.ac.jp/news/release/2020/0928.html&quot; target=&quot;_blank&quot;&gt;新型コロナウイルス肺炎CT画像をAI解析するためのプラットフォームを開発　〜全国の病院から集めたCT画像をAIで選別し高品質なAI研究用データセットとして整備〜&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;この研究開発環境を利用し、研究の成果を社会実装するための実証実験として、COVID-19肺炎CT画像によるサーベイランスシステムを開発しました。&lt;/p&gt;

&lt;p&gt;NIIニュースリリース  2022年11月1日&lt;/p&gt;

&lt;p&gt;&lt;a href=&quot;https://www.nii.ac.jp/news/release/2022/1101.html&quot; target=&quot;_blank&quot;&gt;COVID-19肺炎CT画像によるサーベイランスシステムを開発 パンデミックに即応して研究開発が可能なICTプラットフォーム&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;&lt;a href=&quot;https://www.nii.ac.jp/news/upload/nii_newsrelease_20221101.pdf&quot;&gt;&lt;img src=&quot;/rc4mb/assets/covid19surveillance/nii_newsrelease_20221101-1.jpg&quot; alt=&quot;NII COVID-19 2022 News Release&quot; /&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h3 id=&quot;サーベイランス研究開発の背景&quot;&gt;サーベイランス研究開発の背景&lt;/h3&gt;

&lt;p&gt;COVID-19はSARS-CoV-2 (severe acute respiratory syndrome coronavirus 2) の感染によって発生し、主に肺を含む呼吸器に症状を呈します。基本的に症状は比較的軽く、感染者の3分の1は無症状で終わります。さらに、発症した場合でも約8割は軽症から中等度症状で治癒します。いっぽう、SARS-CoV-2の感染力はきわめて高く、またたく間に全世界で爆発的な感染流行を引き起こしました。発症者の約2割は重篤な症状を呈し、5パーセントは呼吸不全や多臓器不全などの致命的経過を辿ります。重症化率・致命率は決して高くないのですが、元の感染者数が多いため、重症患者の数が増える傾向があります。&lt;/p&gt;

&lt;p&gt;COVID-19の重症化にはいくつかの要因が関係しています。要因の一つは宿主の状態です。糖尿病などの基礎疾患の存在はウイルス感染に対する抵抗性を弱め、感染した場合には症状が重くなって致命的な状況へ至る可能性が高くなります。基礎疾患だけでなく、加齢や喫煙も重症化を促す状態となります。さらに、基礎疾患のない健康で若い成人でも、一定の割合で重症化する症例が報告されており、その原因の一つとして、感染者の遺伝的要因が想定されています。このような宿主の状態は、診療記録を参照するなどしてある程度は把握することが可能です。&lt;/p&gt;

&lt;p&gt;重症化のもう一つの要因は、SARS-CoV-2の変異株 (variant) の存在です。ウイルスが宿主の細胞の中でゲノムを複製する過程で塩基配列に一定の確率で変異が入ります。大多数の変異はウイルスの表現型 (感染力や毒性など) を変えるに至らず、あるいは、ウイルスの生存率を下げてしまうため、変異株が優勢となることはありません。しかし、ごく一部の変異は生存率を上げる方向へ表現型を変えてしまうことがあり、このような変異株は短期間で感染流行の優勢を占めることになります。感染力や毒性の上がった変異株の出現を正確に予測することはとても困難です。&lt;/p&gt;

&lt;p&gt;COVID-19の診断には、ウイルスの存在を示すPCR検査や抗原検査が利用されます。こうした検査は手軽で感度も高く、感染の有無を迅速、且つ大規模に同定することができます。しかし、COVID-19パンデミックにおいては、感染の有無ではなく、発症とそこから重症化する症例の把握が重要です。COVID-19の重症化には上述のようにいくつかの要因があり、感染の有無だけでは重症化症例を把握することはできません。重症化に至る最初の段階である症状、とりわけ肺炎の状態を把握しておくことが必要です。&lt;/p&gt;

&lt;p&gt;そこで、肺野のX線CT画像からCOVID-19肺炎の典型度を判定するAIを利用し、クラウド基盤に日々収集されているCT画像を自動判定するシステムを構築、稼働することにしました。このシステムによって全国の医療機関で撮影されているCT画像からCOVID-19肺炎の症例を自動で判定し、それらの判定結果を日毎に集計することでCOVID-19肺炎のサーベイランスを行うことができます。発症率や経験則に依存しないで、肺炎患者の実態を画像ベースでリアルタイムに追跡、把握するシステムです。&lt;/p&gt;

&lt;h3 id=&quot;サーベイランスシステムの実際&quot;&gt;サーベイランスシステムの実際&lt;/h3&gt;

&lt;p&gt;クラウド基盤には毎日2千〜1万シリーズ、画像にして50万〜120万枚のX線CT画像が送信されています。このCT画像は全身のもので、肺野を撮影対象としていない画像も多く含まれます。そこで、所見文に「肺」が含まれるCT画像を選択し、これらの画像に&lt;a href=&quot;http://research.nii.ac.jp/rc4mb/news/2020/09/29/covid19.html&quot;&gt;以前に研究開発した診断補助AI&lt;/a&gt;を実行し、各画像に対してCOVID典型度、所見文における重要キーワードの有無などを計算しました。処理した約31万症例の計算結果を各日ごとに集計して出力し、可視化してサーベイランスとしています。&lt;/p&gt;

&lt;h3 id=&quot;サーベイランスの結果---24-march-2023-updated&quot;&gt;サーベイランスの結果 - 24 March 2023 updated&lt;/h3&gt;

&lt;p&gt;サーベイランスシステムの稼働以来、過去にも遡って判定、集計を続けてきました。今回、COVID-19パンデミック初期の2020年2月までの遡り解析が終了し、今年2月末までの3年間のCOVID-19肺炎の動態が明らかになりました。&lt;/p&gt;

&lt;p&gt;&lt;img src=&quot;/rc4mb/assets/covid19surveillance/COVID-19pneumoniae_surveillanceDateCorrect_16mar2023varthre.png&quot; alt=&quot;COVID-19 pneumoniae surveillance&quot; /&gt;&lt;/p&gt;

&lt;p&gt;&lt;a href=&quot;/rc4mb/assets/covid19surveillance/HiRate+Hi*COVID+Hi*GGO_DateCorrect_16mar2023varthre.html&quot; target=&quot;_blank&quot;&gt;サーベイランス　(インタラクティブグラフ版)&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;全国のCOVID-19による日毎の死亡者数 (&lt;a href=&quot;https://www.mhlw.go.jp/stf/covid-19/open-data.html&quot; target=&quot;_blank&quot;&gt;厚生労働省オープンデータ&lt;/a&gt;) を背景のグレーの棒グラフでプロットしています。横軸下のI 〜 VIIIは感染の各波を、alphaやdeltaなどはSARS-CoV-2のその時点で優勢な変異株を、それぞれ示しました。変異株の間の斜めの境界は、株間の世代交代に要した時間を反映していて、delta-omicronの世代交代はalpha-deltaのそれの約三分の一の時間しか要していません。緑実線はAIによってCOVID-19肺炎に典型的なCT画像所見の可能性が高いと判定された症例の割合 (全症例に対する典型度高症例の割合) です。赤実線は所見文に「COVID」や「コロナ」などの文言が現れた症例の数と典型度高症例の割合を掛け合わせた数値を示し、青実線は所見文に「すりガラス陰影」や「GGO (ground-glass opacity)」などの文言が現れた症例の数と典型度高症例の割合を掛け合わせた数値を示しています。いずれも二週間の移動平均線です。&lt;/p&gt;

&lt;p&gt;典型度高の割合の変動と各波は一致する部分としない部分がありますが、V波までは概ね一致しています。この傾向は、所見文に「COVID」や「GGO」といった文言が現れる症例数を掛け合わせた数値を見ると、よりいっそう明確になります。これらの文言は所見文に現れているだけで、それらの所見が画像にあるか否かは反映していません。つまり、「COVID肺炎と矛盾しない」という所見文も「COVIDを疑わない」という所見文も等しくカウントしているため、その所見文が附帯した画像がCOVID-19肺炎のCT画像ではない可能性もあります。したがって、これらの文言の出現頻度は、正確にはCOVID-19肺炎の頻度を反映していません。ただし、COVID-19肺炎と関係ない画像の所見文に「COVID」の文言が現れる確率は低く、ある程度の反映はあると考えられます。&lt;/p&gt;

&lt;p&gt;「すりガラス陰影 (GGO)」はウイルス性肺炎のCT画像に典型的な所見で、COVID-19肺炎でも特徴的です。ただし、GGOは間質性肺炎でもよく見られ、SARS-CoV-2以外のウイルスによる肺炎でも現れるため、COVID-19に特異的な所見ではありません。しかも「COVID」文言の場合と同様に、所見にGGOがなくても所見文に「GGO」が現れる場合もあります。ここで、AIによる典型度高判定の割合と放射線科医による「GGO」文言出現の数を掛けた数値 (青実線) は、機械とヒトの判定を互いに補強した数値と見做すことができます。実際、V波までは流行のピークとよく一致します。&lt;/p&gt;

&lt;p&gt;AI判定がVI波以降は感染ピークと一致しない現象については、おそらく学習データと判定ターゲットの乖離が原因でしょう。サーベイランスシステムで利用した診断補助AIの学習データは2020年7月から2021年6月のCOVID-19肺炎症例を使っています。この時期にはomicron株は未だ出現していません。さらに、omicron株による臨床像は、それまでのalpha株やdelta株のそれとは異なっていて、CT画像の所見も違います。このAIがomicron株によるCT画像の変化に追従しきれていない可能性は十分にあります。今後は、変異株の変遷に伴って学習データの更新を実行する仕組みを導入するなど、判定精度を維持する方策が必要でしょう。&lt;/p&gt;

&lt;h3 id=&quot;acknowledgement&quot;&gt;Acknowledgement&lt;/h3&gt;

&lt;p&gt;本研究開発成果は、NICT委託研究「ウイルス等感染症対策に資する情報通信技術の研究開発」の研究課題「&lt;a href=&quot;https://www.nict.go.jp/collabo/commission/k_222A03.html&quot; target=&quot;_blank&quot;&gt;課題A ウイルス等感染症により発生するパンデミック対策に資するICT (採択番号 222A03)&lt;/a&gt;」によるものです。&lt;/p&gt;

</description>
        <pubDate>Fri, 24 Mar 2023 09:00:00 +0900</pubDate>
        <link>http://research.nii.ac.jp/rc4mb/news/2023/03/24/covid19_surveillance.html</link>
        <guid isPermaLink="true">http://research.nii.ac.jp/rc4mb/news/2023/03/24/covid19_surveillance.html</guid>
        
        <category>news</category>
        
        <category>activities</category>
        
        
        <category>news</category>
        
      </item>
    
      <item>
        <title>AI model for age estimation</title>
        <description>&lt;p&gt;日本眼科学会と国立情報学研究所は、眼底写真から年齢を推定するAIを研究開発し、そのモデルを無償公開しました。&lt;/p&gt;

&lt;p&gt;ヒトの健康状態は年齢と密接に関係しています。がんや認知症などの発症は年齢を経るとともに頻度が高くなり、生活習慣病のリスクも増加します。年齢は単に経てきた年月を数えた暦年齢 (chronological age) と、身体の老化の状態を考慮に入れた生物学的年齢 (biological age) があり、健康状態と関係している年齢は生物学的年齢です。しかし、暦年齢は生年月日から容易に計算することができますが、生物学的年齢を算出することは容易ではありません。&lt;/p&gt;

&lt;p&gt;眼底の網膜は光を受容するための組織で、光を感受する視細胞以外にも神経線維や色素細胞、血管が規則正しく配置されて機能しています。外界からの光を受容するという特質上、網膜は体外から光学的に観察しやすい器官でもあります。実際、ヒトの体の中で唯一、網膜は血管の状態を直接観察できる部位とされています。そのため、眼底写真を利用して通常では簡単には観察できない組織の状態から生物学的年齢を推定する方法が模索されてきました&lt;/p&gt;

&lt;p&gt;そこで、&lt;a href=&quot;https://www.nichigan.or.jp&quot; target=&quot;_blank&quot;&gt;日本眼科学会&lt;/a&gt;ではNIIと共同で眼底写真から生物学的的年齢を精度良く推定するAIを開発し、広く医学研究に役立ててもらうために無償公開することにしました。公開したAIの詳細は&lt;a href=&quot;http://www.joir.jp/&quot; target=&quot;_blank&quot;&gt;Japan Ocular Imaging Registry (JOIR)&lt;/a&gt;の&lt;a href=&quot;http://www.joir.jp/data/index.html&quot; target=&quot;_blank&quot;&gt;眼底年齢評価モデル&lt;/a&gt;をご参照ください。&lt;/p&gt;

&lt;p&gt;国立情報学研究所プレスリリース &lt;a href=&quot;https://www.nii.ac.jp/news/release/2023/0110.html&quot; target=&quot;_blank&quot;&gt;https://www.nii.ac.jp/news/release/2023/0110.html&lt;/a&gt;&lt;/p&gt;

&lt;h3 id=&quot;update&quot;&gt;Update&lt;/h3&gt;
&lt;p&gt;&lt;a href=&quot;https://www.nii.ac.jp/en/news/release/2023/0110.html&quot; target=&quot;_blank&quot;&gt;ニュースリリースの英語版&lt;/a&gt;を発表し、EurekAlert!にて&lt;a href=&quot;https://www.eurekalert.org/news-releases/985644&quot; target=&quot;_blank&quot;&gt;国際配信&lt;/a&gt;されました。&lt;/p&gt;

</description>
        <pubDate>Tue, 10 Jan 2023 09:00:00 +0900</pubDate>
        <link>http://research.nii.ac.jp/rc4mb/news/2023/01/10/model-open.html</link>
        <guid isPermaLink="true">http://research.nii.ac.jp/rc4mb/news/2023/01/10/model-open.html</guid>
        
        <category>news</category>
        
        
        <category>news</category>
        
      </item>
    
      <item>
        <title>Development and multi-institutional validation of an artificial intelligence-based diagnostic system for gastric biopsy</title>
        <description>&lt;p&gt;&lt;a href=&quot;http://pathology.or.jp&quot; target=&quot;_blank&quot;&gt;日本病理学会&lt;/a&gt;、&lt;a href=&quot;https://www.mi.t.u-tokyo.ac.jp&quot; target=&quot;_blank&quot;&gt;東京大学原田研究室&lt;/a&gt;、NII RCMBの共同研究による、胃生検胃がんの病理診断支援AIに関する論文が&lt;a href=&quot;https://onlinelibrary.wiley.com/journal/13497006&quot; target=&quot;_blank&quot;&gt;Cancer Science&lt;/a&gt;に発表されました。&lt;/p&gt;

&lt;p&gt;病理診断では、ある病理医の診断を他の病理医が確認するダブルチェックの仕組みがあります。しかし、日本では全国的に病理医の数は不足しており、2人以上の病理医が常駐する医療機関は限られています。この状況をICTを援用して解決するため、日本病理学会は病理組織デジタル画像 (Pathology-Whole Slide Imaging, P-WSI) のデータベース構築を核とする&lt;a href=&quot;https://www.pathology.or.jp/jp-aid/&quot; target=&quot;_blank&quot;&gt;Japan Pathology Artificial Intelligence Diagnostics Project (JP-AID)&lt;/a&gt;を開始し、病理診断精度管理ツールや病理診断支援ツールの開発を行ってきました。今回の研究では、日本人のがんの多く占める胃がんを対象とし、東京大学原田研究室、NII RCMBと連携して胃生検の病理組織診断を支援するAIを開発しました。&lt;/p&gt;

&lt;fieldset&gt;
&lt;p&gt;Abe H, Kurose Y, Takahama S, Kume A, Nishida S, Fukasawa M, Yasunaga Y, Ushiku T, Ninomiya Y, Yoshizawa A, Murao K, Sato S, Kitsuregawa M, Harada T, Kitagawa M, Fukayama M, Japan Pathology AI Diagnostics / National Institution of Informatics (JP-AID/NII) Study Group for gastric biopsy pathology&lt;/p&gt;
&lt;h3&gt;Development and multi-institutional validation of an artificial intelligence-based diagnostic system for gastric biopsy&lt;/h3&gt;
&lt;p&gt;&lt;i&gt;
Cancer Science, Published Online 12 August 2022
&lt;/i&gt;&lt;/p&gt;
&lt;h3&gt;&lt;b&gt;Abstract&lt;/b&gt;&lt;/h3&gt;
To overcome the increasing burden on pathologists in diagnosing gastric biopsies, we developed an artificial intelligence-based system for the pathological diagnosis of gastric biopsies (AI-G), which is expected to work well in daily clinical practice in multiple institutes. The multistage semantic segmentation for pathology (MSP) method utilizes the distribution of feature values extracted from patches of whole-slide images (WSI) like pathologists’ “low-power view” information of microscopy. The training dataset included WSIs of 4511 gastric biopsy tissues from 984 patients. In tissue-level validation, MSP AI-G showed better accuracy (91.0%) than that of conventional patch-based AI-G (PB AI-G) (89.8%). Importantly, MSP AI-G unanimously achieved higher accuracy rates (0.946 ± 0.023) than PB AI-G (0.861 ± 0.078) in tissue-level analysis, when applied to the cohorts of 10 different institutes (3450 samples of 1772 patients in all institutes, 198–555 samples of 143–206 patients in each institute). MSP AI-G had high diagnostic accuracy and robustness in multi-institutions. When pathologists selectively review specimens in which pathologist’s diagnosis and AI prediction are discordant, the requirement of a secondary review process is significantly less compared with reviewing all specimens by another pathologist.
&lt;/fieldset&gt;
&lt;p&gt;&lt;a href=&quot;https://doi.org/10.1111/cas.15514&quot; target=&quot;_blank&quot;&gt;https://doi.org/10.1111/cas.15514&lt;/a&gt;&lt;/p&gt;

&lt;h3 id=&quot;multistage-semantic-segmentation-for-pathology&quot;&gt;Multistage semantic segmentation for pathology&lt;/h3&gt;

&lt;p&gt;病理医が病理組織標本を検鏡する際、まず拡大率の低い弱拡大で標本の全体を俯瞰し、気になった部分を強拡大で詳細に観察して病理診断を進めます。今回の研究では、この検鏡時の観察原理を機械学習に取り入れ、診断精度の向上を図りました。&lt;/p&gt;

&lt;p&gt;P-WSIは画像のサイズが非常に大きく、そのままの解像度で機械学習することはできません。従来法では、P-WSIを一定の小さなサイズの画像 (patch, パッチ) をタイル状に敷き詰めた集合体へ分割し、そのパッチを一つずつ機械学習するアルゴリズム (patch-based AI, PB-AI) が用いられてきました。PB-AIはパッチ個々では一定の判定精度を達成していますが、組織標本全体の病理診断では必ずしも高精度とはいえないアルゴリズムでした。&lt;/p&gt;

&lt;p&gt;そこで、パッチから抽出した特徴量の組織標本全体における分布を元にして、P-WSIのセマンティックセグメンテーション (multistage semantic segmentation for pathology, MSP) を実行する新しいアルゴリズムを提案しました。このセグメンテーションが病理組織標本の検鏡における弱拡大観察に相当し、パッチ個々の判定精度を維持したまま組織標本全体の病理診断の精度も高めることに成功しています。&lt;/p&gt;

&lt;p&gt;&lt;img src=&quot;/rc4mb/assets/cas2022/nii_newsrelease_20220809_image12-thumb-640xauto-9177.png&quot; alt=&quot;MSP reduces pseudo-positive&quot; /&gt;
&lt;small&gt;&lt;strong&gt;付図説明&lt;/strong&gt; – 従来法のPB-AIでは、炎症性浸潤などが存在するとがん陽性と誤判定するパッチが出現し、組織標本全体でがん陽性と偽陽性判定することがある。提案手法のMSPはパッチの特徴量を元に組織標本をセグメンテーションするため、誤判定パッチの影響を受け難い。
&lt;/small&gt;&lt;/p&gt;

&lt;h3 id=&quot;多施設で通用する頑健な診断支援ai&quot;&gt;多施設で通用する頑健な診断支援AI&lt;/h3&gt;

&lt;p&gt;組織標本は、フォルマリン固定した組織片をアルコールで脱脂してパラフィンワックスに包埋し、パラフィンワックスごと薄切してスライドガラスに貼り付けて作成します。この薄切切片はほぼ無色で、顕微鏡で観察 (検鏡) する前に細胞や組織を色素で染める必要があります。病理組織標本ではヘマトキシリン・エオジン (Hematoxylin Eosin, HE) 染色が一般的で、ヘマトキシリンで細胞核が青藍色に、エオジンで細胞質やコラーゲンなどの線維が赤色に染まります。このHE染色は処理手順 (protocol, プロトコール) に敏感で、使用する染色試薬の銘柄や染色・洗浄にかける時間、ラボのある地域の水道水の水質などによって染め上がりが異なります。さらに、病理学においてHE染色の統一したプロトコールは存在せず、各医療機関が独自に定めるプロトコールに従っています。つまり、ひとくちにHE染色の病理組織標本と言っても、医療機関ごとに染色の仕上がりが異なることになります。&lt;/p&gt;

&lt;p&gt;この医療機関ごとの差違は、病理組織診断を支援するAIにとって診断精度を低める大きな要因です。つまり、ある医療機関のHE染色病理組織標本で機械学習したAIで他の医療機関の組織標本を判定すると、精度が低下する可能性が高くなります。この精度低下は学習結果がそれぞれのパッチの色合いに影響されやすいPB-AIでは顕著となる傾向がある一方、病変領域をセグメンテーションしてP-WSI全体を判定するMSPでは現れ難くなります。実際、今回の研究で10の異なる医療機関に由来するP-WSIで評価すると、PB-AIと比較してMSPは高い精度を維持していました。&lt;/p&gt;

&lt;p&gt;&lt;img src=&quot;/rc4mb/assets/cas2022/nii_newsrelease_20220809_image3-thumb-640xauto-9180.png&quot; alt=&quot;Multi-institutional validation&quot; /&gt;
&lt;small&gt;&lt;strong&gt;付図説明&lt;/strong&gt; – 学習データを提供した医療機関を対照 (内部) として、A~Jの10の異なる医療機関のP-WSIをPB-AIとMSPで判定した。病理医の作成した正解とそれぞれの診断支援AIの判定との一致率を検証したところ、MSPは一貫して高い判定精度を達成した。
&lt;/small&gt;&lt;/p&gt;

&lt;h3 id=&quot;今後の展開&quot;&gt;今後の展開&lt;/h3&gt;

&lt;p&gt;今回の研究で開発したMSPは病理医に代わって胃生検胃がんの病理組織診断するものではありません。確定診断は病理医のみに許された医療行為であり、機械で代替することはできません。もともと、MSPは病理組織診断のダブルチェックにおいて、病理医の負担を軽減することを目的に開発されました。ダブルチェックを病理医で行うと全ての症例を2人の病理医が検鏡することになります。ここにMSPを導入すると、病理医とMSPの判定が異なる症例のみを2人の病理医によるダブルチェックに供することとなり、病理医の負担を軽減できます。さらに、病理医が1人しかいない医療機関でもダブルチェックにかかる時間的、人的リソースを軽減することが可能でしょう。今後は、MSPをクラウドやサーバで稼働し、ネットワーク経由でダブルチェックを可能とするシステムを構築して社会実装を目指します。&lt;/p&gt;

&lt;p&gt;日本病理学会プレスリリース &lt;a href=&quot;https://www.pathology.or.jp/jp-aid/2022/08/post-20200320.html&quot; target=&quot;_blank&quot;&gt;https://www.pathology.or.jp/jp-aid/2022/08/post-20200320.html&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;国立情報学研究所プレスリリース &lt;a href=&quot;https://www.nii.ac.jp/news/release/2022/0812.html&quot; target=&quot;_blank&quot;&gt;https://www.nii.ac.jp/news/release/2022/0812.html&lt;/a&gt;&lt;/p&gt;

</description>
        <pubDate>Mon, 15 Aug 2022 09:00:00 +0900</pubDate>
        <link>http://research.nii.ac.jp/rc4mb/publication/2022/08/15/abe+kurose-cancerscience.html</link>
        <guid isPermaLink="true">http://research.nii.ac.jp/rc4mb/publication/2022/08/15/abe+kurose-cancerscience.html</guid>
        
        <category>publication</category>
        
        
        <category>publication</category>
        
      </item>
    
      <item>
        <title>ICT as a countermeasure against pandemic</title>
        <description>&lt;p&gt;NII RCMBでは、2021年度より順天堂大学ならびに名古屋大学と共同で&lt;a href=&quot;https://www.nict.go.jp/index.html&quot; target=&quot;_blank&quot;&gt;国立研究開発法人情報通信研究機構 (National Institute of Information and Communications Technology, NICT)&lt;/a&gt; の委託研究「ウイルス等感染症対策に資する情報通信技術の研究開発」に取り組んでいます。研究課題は「&lt;a href=&quot;https://www.nict.go.jp/collabo/commission/k_222A03.html&quot; target=&quot;_blank&quot;&gt;課題A ウイルス等感染症により発生するパンデミック対策に資するICT (採択番号 222A03)&lt;/a&gt;」です。&lt;/p&gt;

&lt;h3 id=&quot;研究開発の背景と目的&quot;&gt;研究開発の背景と目的&lt;/h3&gt;

&lt;p&gt;SARS-CoV-2 (新型コロナウイルス) 感染によって引き起こされる感染症COVID-19のパンデミックは医療サービスを供給するリソースの逼迫を来たし、COVID-19患者への対応のみならず、それ以外の医療受給者への深刻なサービス水準の低下をもたらしました。このような世界的な緊急事態に際しては、平常時と同程度の医療サービス水準を維持することに加えて、緊急事態に対応した適切な医療サービスを迅速に供給することが求められます。医療サービスを供給するリソースの第一は医師や看護師、技師などの人的資源なのですが、緊急事態に柔軟に対応できる経験豊かな優れた人材を多数、かつ即座に確保することはとても困難です。&lt;br /&gt;&lt;/p&gt;

&lt;p&gt;そこで、ICTを活用した診断支援技術を速やかに開発し、医療現場に迅速に投入することができれば、いくらかであっても人的資源の逼迫を緩和することができます。ここで、例えば医療現場のX線CT画像撮影装置にAI によるCOVID-19肺炎症状診断支援機能を搭載し、感染者の瞬時の特定、重症度や予後の判定を行うことができれば、医療現場の負担を大きく軽減することができます。加えて、画像情報だけでなく検査値や所見文などの医療情報を収集、統合したAI診断技術の研究開発も、さらなる精度向上のために必要です。そのためには、画像を含めた医療情報をICT活用により全国の病院から一元的に蓄積、活用するプラットフォームを常時稼働しておくことが不可欠です。&lt;br /&gt;&lt;/p&gt;

&lt;p&gt;この課題では、上述のようなAIによる診断支援技術を平常時から研究開発し、緊急事態にあっては必要な医療支援を速やかに臨床現場へ供することを可能とするために、ICTを活用した医療情報の蓄積と機械学習によるデータ解析の機能を統合したプラットフォームであるクラウド基盤を整備・運用します。さらに、毎日蓄積している医療情報を統合解析し、必要なときに必要な学習データを迅速に準備して診断支援AIの研究開発を加速するプラットフォームを目指します。&lt;/p&gt;

&lt;h3 id=&quot;研究開発の概要&quot;&gt;研究開発の概要&lt;/h3&gt;

&lt;p&gt;具体的には、次の二つの研究開発を実行しています。&lt;/p&gt;

&lt;ol&gt;
  &lt;li&gt;日本医学放射線学会が運営する日本医用画像データベース (J-MID) から学術ネットワークSINETを通じて悉皆的にCT画像を受け入れる仕組みを利用し、COVID-19肺炎症例および対照症例をアノテーション情報を含めて収集し、学習データを準備する。&lt;/li&gt;
  &lt;li&gt;NIIが運用する医療ビッグデータの収集、解析プラットフォームであるクラウド基盤について、SINETを通じた外部の計算リソースとの基盤連携を行う。&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;&lt;img src=&quot;/rc4mb/assets/nict/NICT_Whole_r1.png&quot; alt=&quot;NICT 222A03&quot; /&gt;
&lt;small&gt;&lt;strong&gt;付図説明&lt;/strong&gt; – クラウド基盤に日々送られてくるCT画像から肺野のシリーズを抽出し、COVID-19肺炎の典型度を判定する診断補助AIを稼働しました。判定結果を日毎に集計してサーベイランスとしています。基盤連携では、名古屋大学で情報基盤センターのスーパーコンピュータとSINET6を経由して接続し、機械学習計算を遠隔の計算資源を利用して実行する環境を整備しています。グラフ中の日毎のCOVID-19による死亡者数 (灰色棒グラフ) は厚生労働省のオープンデータを利用しました。&lt;br /&gt;
厚生労働省オープンデータ
&lt;a href=&quot;https://www.mhlw.go.jp/stf/covid-19/open-data.html&quot; target=&quot;_blank&quot;&gt;https://www.mhlw.go.jp/stf/covid-19/open-data.html&lt;/a&gt;
&lt;/small&gt;&lt;/p&gt;

&lt;p&gt;NIIと順天堂大学、名古屋大学は分担して以下の各研究開発項目に取り組みました。&lt;/p&gt;

&lt;p&gt;&lt;b&gt;NII: 研究開発項目1 データベース基盤とネットワークを活用したAI学習基盤&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;COVID-19肺炎にかかる学習用データセットの作成&lt;/li&gt;
&lt;li&gt;大規模データベース（NII）と遠隔地にある計算資源（名古屋大学）との基盤連携を実現する実験&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;b&gt;順天堂大学: 研究開発項目2 COVID-19 肺炎のCT画像収集と臨床的な評価&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;2,164例の放射線診断専門医の読影によるRSNA分類とアノテーション付与&lt;/li&gt;
&lt;li&gt;順天堂大学附属順天堂医院で実証実験用ソフトウェアの適用&lt;/li&gt;
&lt;li&gt;サーベイランスシステムのためのAI陽性判定症例数の経時的な収集&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;b&gt;名古屋大学: 研究開発項目3 AIアルゴリズム開発と実証用ソフト実現&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;CT画像からの自動識別を行うCOVID-19診断補助AIの改善実施、約92%の分類精度を実現&lt;/li&gt;
&lt;li&gt;診断補助AIを用いた実証実験用ソフトウェアを実装&lt;/li&gt;
&lt;li&gt;継続的にAIの自動判別結果を得ることでサーベイランスシステムの運用&lt;/li&gt;
&lt;/ul&gt;

&lt;h3 id=&quot;研究成果&quot;&gt;研究成果&lt;/h3&gt;

&lt;p&gt;&lt;b&gt;NII: 研究開発項目1 データベース基盤とネットワークを活用したAI学習基盤&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;COVID-19肺炎にかかる学習用データセットの作成&lt;/li&gt;
CT画像によるCOVID-19肺炎の典型度判定を行うAIの研究開発に必要な十分な数の学習データを得るために、日々収集されるCT画像から適切なデータを抽出するワークフローを構築しました。J-MIDよりNIIへ送られてくるCT画像は全身を対象としたものであり、その中には頭頸部のみ、あるいは腹部のみといった、肺野が含まれないものも多く含まれます。したがって、まず肺野が含まれるCT画像のシリーズへ絞り込む必要があります。学習用データには、放射線学会が指定した基準で付与されたアノテーションが必須です。クラウド基盤上には多施設から送られてくるアノテーション情報を画像や所見文などとは別に収集する仕組みを持っており、今回これをCOVID-19肺炎の判定用に利用しました。その結果、毎日十数万枚送られてくるCT画像から、合計で2,164例のCT画像シリーズを得て開発用のデータセットを作成しました。後述するサーベイランスシステム用のデータについては、所見文から肺に関する情報を検索し、これを利用することで肺野を含むCT画像シリーズを効率よく抽出することができました。&lt;br /&gt;&lt;br /&gt;

&lt;li&gt;大規模データベース（NII）と遠隔地にある計算資源（名古屋大学）との基盤連携を実現する実験&lt;/li&gt;
NIIが保有する医療画像大規模データベースと名古屋大学情報基盤センターのスーパーコンピュータを接続し、COVID-19画像解析を実施するための方式を検討し、実証実験環境を設計、試行しました。実験に際して、セキュリティを確保しつつ計算性能を担保することを考慮し、起こりうる障害に対する耐性や反応についても考慮しています。まずセキュリティを確保するため、NII柏分館に設置した試行実験用のストレージサーバと名古屋大学に設置したGPUサーバとを学術ネットワークSINET6 L2VPNを用いて接続しました。接続方式としては、元データをGPUサーバに残さないことを前提に、NFSやSSHFS、その他のオープンソースのツールを検討した結果、SSHFSを採用する方針となりました。実際にNII柏分館に置いたデータに300km以上遠隔地の名古屋大学のGPUサーバから機械学習のI/Oを動作させ、速度性能に問題の無いことを確認しています (回線速度10Gbps：逐次処理で約0.8Gbps、3並列処理で約1.6Gbpsの速度)。SSHFSでも接続オプションの選択でセキュリティの問題が発生しないようノウハウを蓄積しています。起こりうる障害については、特に機械学習中のネットワーク切断やストレージサーバのダウンについて検証を行い、セキュリティ上やメンテナンス上の問題が発生しないことを確認しました。以上の基盤連携の設計・検証により、2023年度以降に実運用に入れる目途が立ちました。
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;順天堂大学: 研究開発項目2 COVID-19 肺炎のCT画像収集と臨床的な評価&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;2,164例の放射線診断専門医の読影によるRSNA分類とアノテーション付与&lt;/li&gt;
COVID-19感染患者の胸部CTを放射線診断専門医の提言に従って、&lt;br /&gt;
（１）COVID-19肺炎に典型的な所見を有するもの&lt;br /&gt;
（２）典型的とは言えない非特異的な所見で不確定なもの&lt;br /&gt;
（３）非典型的なもの&lt;br /&gt;
（４）肺炎の所見がないもの&lt;br /&gt;
の4つに分類しました。2020年7月から2021年6月までに撮影されたCTのうち、PCR検査でCOVID-19感染が証明された症例を抽出し、それぞれの症例を放射線診断専門医が読影して（１）〜（４）に分類しました。その結果にEIRLアノテーションソフトでアノテーションを付与、合計2,164例のCOVID-19肺炎に関連するアノテーション付き画像データをJ-MIDオンプレミスサーバーを経由してNIIクラウド基盤に送信しました。&lt;br /&gt;&lt;br /&gt;

&lt;li&gt;順天堂大学附属順天堂医院で実証実験用ソフトウェアの適用&lt;/li&gt;
順天堂大学附属順天堂医院で利用しているAIプラットフォームに名古屋大学で開発した実証実験用ソフトウェアを組み込みました。このプラットフォームでは1分毎にPACSにQ/Rをかけ、自動的に胸部CT画像を抽出し、AIの検証を行っています。医療機器ではないため判定結果をPACSに返すことはできないのですが、リモートデスクトップを利用して読影端末上からプラットフォーム上のAI判定結果「COVID-19 Probability」を参照することは可能です。1日毎の結果をリスト化してCSVに書き出し、順天堂医院でのサーベイランスも行いました。また、ある一日に撮影された胸部CT（90件、有病率0.03）のAI診断結果を検証したところ、RSNA分類を基準にした感度は0.65、特異度は0.74であり、臨床診断では感度1.00、特異度0.68でした。COVID-19肺炎の臨床診断に対する感度が高いものの、特異度はやや低いため、国内における比較的低い有病率の下で発生頻度の軽微な変化を捉えることは難しいですが、常時モニタリングすることで肺炎の発生状況のトレンドを知ることは可能と考えています。&lt;br /&gt;&lt;br /&gt;

&lt;li&gt;サーベイランスシステムのためのAI陽性判定症例数の経時的な収集&lt;/li&gt;
COVID-19肺炎の発生状況をモニタリングするサーベイランスシステムについては、NIIクラウド基盤に登録されたデータを解析しています。順天堂大学ではJ-MIDに蓄積された140万件を超えるレポートをデータベース化することで機械的に突合できるような環境を整備し、AI陽性判定症例数の正確な経時的な変化を求めることを可能にしました。
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;名古屋大学: 研究開発項目3 AIアルゴリズム開発と実証用ソフト実現&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;CT画像からの自動識別を行うCOVID-19診断補助AIの改善実施、約92%の分類精度を実現&lt;/li&gt;
CT画像からの自動識別を行うCOVID-19診断補助AIの性能向上を図るために、AIの構成要素である「(1)肺野・異常陰影セグメンテーションAI」、画像所見に基づいてCOVID-19症例の可能性を判定する「(2)判別AI」それぞれの精度を改善しました。「(1)肺野・異常陰影セグメンテーションAI」では、肺の炎症発生の平均的な位置を表すAverage Templateを導入し、Average Templateを用いた炎症領域セグメンテーション手法を開発しました。この手法は学習データが少ない場合においてもセグメンテーション実施を高める効果があります。「(2)判別AI」では、3D Convolutional Neural Network (3D CNN) を用いた自動判別に対し、近年注目される新しい画像分類モデルであるVision Transformer、Vision Transformerと類似した構造を持つMLP-Mixerを併用して判別精度の向上を図っています。実験の結果、3D CNNのみを用いる場合と比較して、Vision TransformerやMLP-Mixerを併用することで自動判別精度の向上が確認されました。MLP-Mixerを使用した場合に、3D CNNのみと比べて約5%の判別精度向上が見られ、さらに、3D CNNとattention機構を併用した自動判別手法を開発して約92%の自動判別性能を得ています。&lt;br /&gt;&lt;br /&gt;

&lt;li&gt;診断補助AIを用いた実証実験用ソフトウェアを実装&lt;/li&gt;
順天堂大学附属順天堂医院で撮影した胸部単純CTを実証実験用ソフトウェアである診断補助AIで検証するために、順天堂の医療情報システムと連携したシステムの構築を検討し、順天堂医院で利用しているAIプラットフォームへの適応が可能であることを確認しました。&lt;br /&gt;&lt;br /&gt;

&lt;li&gt;継続的にAIの自動判別結果を得ることでサーベイランスシステムの運用&lt;/li&gt;
診断補助AIを用いた実証実験用ソフトウェアを継続的に適用し、データベース基盤に順次格納される最新のCT画像に対してAIの自動判別を行いました。これにより、近年の新たな感染傾向を反映した統計的データを得ています。また、この成果を順天堂大学におけるCT撮影装置と連動した診断補助AIとして実装し、運用しました。
&lt;/ul&gt;

&lt;p&gt;&lt;img src=&quot;/rc4mb/assets/covid19surveillance/COVID-19pneumoniae_surveillanceDateCorrect_16mar2023varthre.png&quot; alt=&quot;COVID-19 pneumoniae surveillance&quot; /&gt;&lt;/p&gt;

&lt;p&gt;&lt;a href=&quot;/rc4mb/assets/covid19surveillance/HiRate+Hi*COVID+Hi*GGO_DateCorrect_16mar2023varthre.html&quot; target=&quot;_blank&quot;&gt;サーベイランス　(インタラクティブグラフ版)&lt;/a&gt;&lt;/p&gt;

&lt;h3 id=&quot;研究成果の外部発表&quot;&gt;研究成果の外部発表&lt;/h3&gt;

&lt;ol&gt;
  &lt;li&gt;
    &lt;p&gt;COVID-19 lung infection and normal region segmentation from CT volumes using FCN with local and global spatial feature encoder, Masahiro Oda, Yuichiro Hayashi, Yoshito Otake, Masahiro Hashimoto, Toshiaki Akashi, Kensaku Mori. Computer Assisted Radiology and Surgery (CARS 2021）, オンライン, International Journal of Computer Assisted Radiology and Surgery, Vol.16, Sup.1, pp.S19-20, 2021/6/21&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;J-MIDと連携した国立情報学研究所のクラウド基盤におけるAI研究開発, 村尾 晃平, 第34回電子情報研究会・第4回日本医用画像人工知能研究会合同研究会,	オンライン, 依頼講演（第57回日本医学放射線学会秋季臨床大会3日目）特別企画「日本医用画像データベース（J-MID）シンポジウム」, 2021/9/19&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;J-MID（Japan-Medical Image Database）とは？,	明石 敏昭, 第34回電子情報研究会・第4回日本医用画像人工知能研究会合同研究会, オンライン, 依頼講演（第57回日本医学放射線学会秋季臨床大会3日目）特別企画「日本医用画像データベース（J-MID）シンポジウム」, 2021/9/19&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;COVID-19 Infection Segmentation from Chest CT Images Based on Scale Uncertainty, Masahiro Oda, Tong Zheng, Yuichiro Hayashi, Yoshito Otake, Masahiro Hashimoto, Toshiaki Akashi, Shigeki Aoki, Kensaku Mori.	CLIP 2021, 10th MICCAI CLIP Workshop, Clinical Image-Based Procedures, Distributed and Collaborative Learning, Artificial Intelligence for Combating COVID-19 and Secure and Privacy-Preserving Machine Learning, オンライン, LNCS 12969, pp.88-97, 2021/9/27&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;胸部CT像からのCOVID-19症例の自動分類手法, 小田 昌宏, 鄭 通, 林 雄一郎, 大竹 義人, 橋本 正弘, 明石 敏昭, 森 健策. 第40回日本医用画像工学会大会（JAMIT2021), オンライン, 第40回日本医用画像工学会大会予稿集, P1-01, pp.65-67, 2021/10/13&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;CT像の非等方性を考慮した3D CNNによるCOVID‒19症例の自動分類手法, 小田 昌宏, 鄭 通, 林　雄一郎, 大竹 義人, 橋本 正弘, 明石 敏明, 青木 茂樹, 森　健策. 第30回日本コンピュータ外科学会大会（JSCAS 2021）, オンライン, 第30回日本コンピュータ外科学会大会特集号, Vol.23, No.4, pp.265-266, 21(7)-4, 2021/11/22&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;Mechanism Of AIs In COVID-19 CAD And Techniques To Improve AI Performance, Masahiro Oda, Yuichiro Hayashi, Zheng Tong, Toshiaki Akashi, Shigeki Aoki, Kensaku Mori, Masahiro Hashimoto, Hiroshi Natori. RSNA 2021, Chicago/McCormick Place, CHEE-123-HC, 2021/11/28&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;機械学習技術を用いたCOVID-19 CT画像解析と画像データベース基盤, 森　健策, 第13回呼吸機能イメージング研究会学術集会, オンライン, 依頼公演, 2022/1/22&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;胸部CT像からのCOVID-19に関連した所見文の自動生成の検討, 岡崎 真治, 林 雄一郎, 小田 昌宏, 橋本 正弘, 陣崎 雅弘, 明石 敏昭, 青木 茂樹, 森 健策. 電子情報通信学会技術研究報告(MI), オンライン, MI2021-57, vol.121, no.347, pp. 49-54, 2022/1/26&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;Automated classification method of COVID-19 cases from chest CT volumes using 2D and 3D hybrid CNN for anisotropic volumes,	Masahiro Oda, Tong Zheng, Yuichiro Hayashi, Yoshito Otake, Masahiro Hashimoto, Toshiaki Akashi, Shigeki Aoki, Kensaku Mori. SPIE Medical Imaging 2022 On-Demand, オンライン, 2022/3/21&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;AIによる画像診断の現状とこれから, 明石 敏昭, 青木 茂樹, 待鳥 詔洋. 第119回日本内科学会総会, 京都市 ロームシアター京都, 依頼公演, 第119回日本内科学会総会・講演会抄録, p.18, シンポジウム2「AIと内科診療」, 2022/4/16&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;Japan Safe Radiologyのための日本医用画像データベース開発とそのデータ利活用, 明石 敏昭, 待鳥 詔洋, 西江 昭弘, 陣崎 雅弘, 富山 憲幸, 阿部 修, 石神 康生, 郷原 英夫, 中本 裕士, 青木 茂樹. 第81回日本医学放射線学会総会, 横浜市 パシフィコ横浜, 教育展示, 2022/4/15&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;⽇本医学放射線学会による画像診断ナショナルデータベース（J-MID）の開発とその発展, 明石 敏昭. 第41回日本医用画像工学会大会（JAMIT2022）, 名古屋市　 名古屋大学東山キャンパス豊田講堂, 依頼公演, シンポジウム「医用画像データベースとネットワーク」, 2022/7/30&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;Erosion Consistency Training for Semi-Supervised CT Segmentation of COVID-19, 柳 凱, 小田 昌宏, 鄭 通, 林 雄一郎, 大竹 義人, 橋本 正弘, 明石 敏昭, 青木 茂樹, 森 健策. 第41回日本医用画像工学会大会（JAMIT 2022）, 名古屋市 名古屋大学東山キャンパス豊田講堂, OP4-5, 2022/7/30&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;医療ビッグデータクラウド基盤：多施設の医師と情報系研究者によるAI画像解析研究開発の場, 村尾 晃平, CloudWeek2022, 札幌市 北海道大学百年記念会館, 依頼公演, アカデミックインタークラウドシンポジウム2022 https://www.iic.hokudai.ac.jp/news/1842/, 2022/9/7&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;COVID-19: radiology response in Japan, Toshiaki Akashi. The 50th SIRM National Congress, “La Nuvola” Congress Center Rome, 依頼公演, セッション：COVID-19: radiology response across the globe, 2022/10/8&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;Vision transformerとCNNの混合モデルによる胸部CT画像のCOVID-19典型度分類, 遠田 涼, 小田 昌宏, 林 雄一郎, 大竹 義人, 橋本 正弘, 明石敏昭, 青木 茂樹, 森 健策. 2022年度日本生体医工学会東海支部大会, 名古屋市 株式会社スズケン本社, 2022年度日本生体医工学会東海支部大会プログラム・抄録集, p.9
https://drive.google.com/file/d/1ak7SBW6qLyE91GdNJdh1_1YklT-wtQuI/view, 2022/10/29&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;Improved method for COVID-19 classification of complex-architecture CNN from chest CT volumes using orthogonal ensemble networks, Ryo Toda, Masahiro Oda, Yuichiro Hayashi, Yoshito Otake, Masahiro Hashimoto, Toshiaki Akashi, Shigeki Aoki, Kensaku Mori. SPIE Medical Imaging 2023, Town and Country Resort &amp;amp; Convention Center San Diego, California, USA, 12465-11, https://spie.org/conferences-and-exhibitions/medical-imaging/program, 2023/2/20&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;Classification of COVID-19 cases from chest CT volumes using hybrid model of 3D CNN and 3D MLP-mixer, Masahiro Oda, Tong Zheng, Yuichiro Hayashi, Yoshito Otake, Masahiro Hashimoto, Toshiaki Akashi, Shigeki Aoki, Kensaku Mori. SPIE Medical Imaging 2023, Town and Country Resort &amp;amp; Convention Center San Diego, California, USA, 12465-113, https://spie.org/conferences-and-exhibitions/medical-imaging/program, 2023/2/20&lt;/p&gt;
  &lt;/li&gt;
  &lt;li&gt;
    &lt;p&gt;Segmentation of Infected Regions from Chest CT Scans of COVID-19 Cases using Average Template, Kai Liu, Masahiro Oda, Tong Zheng, Yuichiro Hayashi, Yoshito Otake, Masahiro Hashimoto, Toshiaki Akashi, Shigeki Aoki, Kensaku Mori. 電子情報通信学会技術研究報告 (MI), 沖縄市 沖縄県青年会館, https://ken.ieice.org/ken/program/index.php?tgs_regid=9dd71603fb1b52a69f38a21b66a648144321a15d30abe23674a03560c8868784&amp;amp;tgid=IEICE-MI, 2023/3/6&lt;/p&gt;
  &lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;First published on 28 July 2022&lt;br /&gt;
Revised on 2 June 2023&lt;/p&gt;

</description>
        <pubDate>Thu, 28 Jul 2022 09:00:00 +0900</pubDate>
        <link>http://research.nii.ac.jp/rc4mb/news/2022/07/28/222A03NICT2021.html</link>
        <guid isPermaLink="true">http://research.nii.ac.jp/rc4mb/news/2022/07/28/222A03NICT2021.html</guid>
        
        <category>news</category>
        
        <category>activities</category>
        
        <category>nict</category>
        
        
        <category>news</category>
        
      </item>
    
      <item>
        <title>NII Open House 2022</title>
        <description>&lt;p&gt;一昨年、昨年と2年連続でオンライン開催となった&lt;a href=&quot;https://www.nii.ac.jp/event/openhouse/&quot; target=&quot;_blank&quot;&gt;国立情報学研究所オープンハウス&lt;/a&gt;、今年はついにリアル会場とオンラインのハイブリッド開催となりました。RCMBでも2年ぶりにポスターを印刷し、リアル会場とオンラインの両面でオープンハウスに臨みました。&lt;/p&gt;

&lt;h3 id=&quot;nii-open-house&quot;&gt;NII Open House&lt;/h3&gt;

&lt;p&gt;毎年恒例の情報研オープンハウス、今年は6月3日金曜日と6月4日土曜日にハイブリッド開催となりました。&lt;/p&gt;

&lt;p&gt;&lt;img src=&quot;/rc4mb/assets/openhouse2022/OH2022Poster.png&quot; alt=&quot;NII Open House 2022 Poster&quot; /&gt;&lt;/p&gt;

&lt;p&gt;SARS-CoV-2 (severe acute respiratory syndrome coronavirus 2, 新型コロナウイルス) の世界的蔓延もようやく終息の段階に入り、post-coronaあるいはwith-coronaという言葉とともに通常の社会生活へと戻ってきました。今年の情報研オープンハウスはCOVID-19 pandemicが私たちに残した教訓や情報学と社会とのかかわりは今後どうあればよいのか、という観点でさまざまな研究の結果を展示発表しました。&lt;/p&gt;

&lt;p&gt;また、喜連川所長の活動報告に続いて永井良三 自治医科大学学長に基調講演していただきました。&lt;/p&gt;

&lt;fieldset&gt;
&lt;p&gt;&lt;b&gt;国立情報学研究所オープンハウス 基調講演&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;&lt;ul&gt;
&lt;li&gt;日時：2022年6月3日(金) 14:00-14:30&lt;/li&gt;
&lt;li&gt;形式：ハイブリッド開催&lt;/li&gt;
&lt;li&gt;場所：一橋講堂 (東京都千代田区)&lt;/li&gt;
&lt;li&gt;講演：30分&lt;br /&gt;
永井良三 先生 (自治医科大学学長)&lt;br /&gt;
&lt;b&gt;コロナパンデミック対応におけるデータ科学&lt;/b&gt;&lt;br /&gt;
COVID-19パンデミックは、健康医療と社会経済上の危機をもたらしました。誰にとっても初めての経験であり、これまでの経験は必ずしも役に立ちません。こうした状況では、情報を集めて幅広い意見をもとに方針を決定しなければなりませんが、有事法制が整備されておらず、情報収集に多くの障害が存在します。今後、わが国の健康医療上の危機管理体制をどのように構築するか、とくに情報収集と公表のあり方について、演者の経験を含めて紹介します。&lt;/li&gt;
&lt;/ul&gt;&lt;/p&gt;
&lt;/fieldset&gt;

&lt;p&gt;永井先生と喜連川所長の対談も行われました。この顔合わせは昨秋に出版した情報研シリーズ24号「ビッグデータが拓く医療AI」に収録した特別対談「未来の医療に向けて」の再現です。動画が公開されているので、ぜひご覧ください。&lt;/p&gt;

&lt;p&gt;基調講演・対談　国立情報学研究所オープンハウス2022&lt;br /&gt;
&lt;a href=&quot;https://www.youtube.com/watch?v=5NBm_l7CuE4&quot; target=&quot;_blank&quot;&gt;https://www.youtube.com/watch?v=5NBm_l7CuE4&lt;/a&gt;&lt;/p&gt;

&lt;h3 id=&quot;rcmbの発表&quot;&gt;RCMBの発表&lt;/h3&gt;

&lt;p&gt;&lt;img src=&quot;/rc4mb/assets/openhouse2022/c01_NII_Open_House_2022-portrait.png&quot; alt=&quot;NII Open House 2022 RCMB Poster&quot; /&gt;&lt;/p&gt;

&lt;p&gt;&lt;a href=&quot;http://research.nii.ac.jp/rc4mb/news/2020/06/29/openhouse2020.html&quot; target=&quot;_blank&quot;&gt;一昨年&lt;/a&gt;と&lt;a href=&quot;http://research.nii.ac.jp/rc4mb/news/2021/06/22/openhouse2021.html&quot; target=&quot;_blank&quot;&gt;昨年&lt;/a&gt;のポスターはほとんど同じだったので、今年はクラウド基盤の維持整備や機能増強を紹介する内容にしてみました。一昨年度でAMEDプロジェクトが終了して以降、クラウド基盤を医療AI研究開発のプラットフォームとして維持整備するだけでなく、医療AIを社会実装するプラットフォームとしてクラウド基盤を利用するための機能強化も行ってきました。COVID-19肺炎CT画像サーベイランスはその機能強化の一例です。このサーベイランスは、クラウド基盤に医療画像が付帯情報と共に毎日送られてきている環境を活用しています。クラウド基盤に医療AIを常時稼働する仮想環境を用意し、日々のCT画像を自動で解析してCOVID-19肺炎の典型度を判定します。&lt;/p&gt;

&lt;p&gt;PCR検査では感染の有無は判定できますが肺炎症状の有無は判定できず、積極的な加療が必要な感染者の実態は推測によるしかありません。本サーベイランスではCOVID-19肺炎の典型度を判定しているため、実際に肺炎を発症している感染者の実数が日毎に分かります。その判定結果を経時的に集計すると、実際に肺炎症状のある症例数の推移を追うことが可能です。&lt;/p&gt;

&lt;h3 id=&quot;rcmbメンバー&quot;&gt;RCMBメンバー&lt;/h3&gt;

&lt;p&gt;昨年7月にセンター長が交代しました。COVID-19パンデミックの渦中ということで、新メンバーの集合写真を撮影する機会がありませんでした。今回のオープンハウスでは森センター長が名古屋から駆けつけ、ようやく現メンバーの写真を撮影することができました。&lt;/p&gt;

&lt;p&gt;&lt;a href=&quot;/rc4mb/assets/openhouse2022/nii-openhouse_4jun2022-4.jpg&quot; data-lightbox=&quot;RCMB photo&quot; data-title=&quot;RCMB集合写真&quot;&gt;&lt;img src=&quot;/rc4mb/assets/openhouse2022/nii-openhouse_4jun2022-4.jpg&quot; title=&quot;RCMB集合写真&quot; /&gt;&lt;/a&gt;
&lt;small&gt;&lt;strong&gt;RCMBメンバー&lt;/strong&gt; – 左から順に二宮特任研究員・佐藤副センター長・森センター長・合田副センター長・村尾特任准教授・田村特任専門員&lt;/small&gt;&lt;/p&gt;

</description>
        <pubDate>Mon, 27 Jun 2022 09:00:00 +0900</pubDate>
        <link>http://research.nii.ac.jp/rc4mb/news/2022/06/27/openhouse2022.html</link>
        <guid isPermaLink="true">http://research.nii.ac.jp/rc4mb/news/2022/06/27/openhouse2022.html</guid>
        
        <category>news</category>
        
        <category>activities</category>
        
        
        <category>news</category>
        
      </item>
    
  </channel>
</rss>
