<?xml version="1.0" encoding="utf-8"?><feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ja"><generator uri="https://jekyllrb.com/" version="4.1.1">Jekyll</generator><link href="https://yuya-y.com/feed.xml" rel="self" type="application/atom+xml" /><link href="https://yuya-y.com/" rel="alternate" type="text/html" hreflang="ja" /><updated>2026-04-05T17:19:46+09:00</updated><id>https://yuya-y.com/feed.xml</id><title type="html">吉川 友也 (Yuya Yoshikawa)</title><subtitle>Yuya Yoshikawa&apos;s homepage</subtitle><author><name>吉川 友也 (Yuya Yoshikawa)</name><email>yoshikawa@stair.center</email></author><entry><title type="html">IJCAI2025(主著), WWW2025(共著), Reproductive medicine and biology(共著)に論文が採択されました</title><link href="https://yuya-y.com/posts/IJCAI2025-accepted/" rel="alternate" type="text/html" title="IJCAI2025(主著), WWW2025(共著), Reproductive medicine and biology(共著)に論文が採択されました" /><published>2025-05-30T00:00:00+09:00</published><updated>2025-06-03T14:09:36+09:00</updated><id>https://yuya-y.com/posts/IJCAI2025-accepted</id><content type="html" xml:base="https://yuya-y.com/posts/IJCAI2025-accepted/"><![CDATA[<p>最近、吉川が関わった3件の論文が国際会議・論文誌に採択されました。</p>

<ul>
  <li>Yuya Yoshikawa, Masanari Kimura, Ryotaro Shimizu, Yuki Saito, “Explaining Black-box Model Predictions via Two-level Nested Feature Attributions with Consistency Property,” The 34th International Joint Conference on Artificial Intelligence (IJCAI2025), Montreal, Canada, Aug. 2025 (to appear). [<a href="https://arxiv.org/abs/2405.14522">arXiv</a>]</li>
  <li>Ryotaro Shimizu, Takashi Wada, Yu Wang, Johannes Kruse, Sean O’Brien, Sai HtaungKham, Linxin Song, Yuya Yoshikawa, Yuki Saito, Fugee Tsung, Masayuki Goto, Julian McAuley, “Disentangling Likes and Dislikes in Personalized Generative Explainable Recommendation,” The ACM on Web Conference 2025 (WWW2025), Sydney, Australia, Apr. 2025. [<a href="https://dl.acm.org/doi/10.1145/3696410.3714583">paper</a>]</li>
  <li>Masato Saito, Hirofumi Haraguchi, Ikumi Nakajima, Shinya Fukuda, Chenghua Zhu, Norio Masuya, Kazunori Matsumoto, Yuya Yoshikawa, Tomoki Tanaka, Satoshi Kishigami, Leona Matsumoto, “A machine learning model for predicting fertilization following short-term insemination using embryo images,” Reproductive medicine and biology, Volume 24, Pages e12649-, Apr. 2025. [<a href="https://doi.org/10.1002/rmb2.12649">paper</a>]</li>
</ul>]]></content><author><name>吉川 友也 (Yuya Yoshikawa)</name><email>yoshikawa@stair.center</email></author><category term="XAI" /><category term="conference" /><category term="journal" /><summary type="html"><![CDATA[最近、吉川が関わった3件の論文が国際会議・論文誌に採択されました。]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://yuya-y.com/assets/img/card_images/update.png" /><media:content medium="image" url="https://yuya-y.com/assets/img/card_images/update.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">ZOZO Researchとの共同研究の成果をJSAI2024で発表しました</title><link href="https://yuya-y.com/posts/oral-presentation-on-JSAI2024/" rel="alternate" type="text/html" title="ZOZO Researchとの共同研究の成果をJSAI2024で発表しました" /><published>2024-06-01T00:00:00+09:00</published><updated>2024-07-25T02:02:07+09:00</updated><id>https://yuya-y.com/posts/oral-presentation-on-JSAI2024</id><content type="html" xml:base="https://yuya-y.com/posts/oral-presentation-on-JSAI2024/"><![CDATA[<p>2024年度人工知能学会全国大会 (JSAI2024)で、以下の内容を発表しました。
こちらは、ZOZO Researchの皆さんとの共同研究の成果です。
フルバージョンは、<a href="https://arxiv.org/abs/2405.14522">ArXiv</a>に掲載されています。</p>

<h3 id="タイトル">タイトル</h3>
<p>Instance AttributionとFeature Attributionの一貫性制約を満たす集合関数の局所説明法</p>

<h3 id="著者">著者</h3>
<p>吉川友也, 木村 正成（ZOZO Research）, 清水 良太郎（ZOZO Research）, 斎藤 侑輝（ZOZO Research）</p>

<h3 id="概要">概要</h3>
<p>集合関数に対する局所説明では、集合の要素（インスタンス）がどのように寄与するかのInstance attribution (IA)と、各要素の特徴量がどのように寄与するかのFeature attribution (FA)の2つが考えられる。IAはそのインスタンスを構成する特徴のFAの合計と一致すると考えるのが自然であり、説明の一貫性の観点でも重要なことであるが、既存説明法を用いた場合、その一致性を達成することは困難である。本研究では、IAとFAの一貫性制約の下でこれらを同時に推定するモデル非依存の局所説明法を提案する。実験では、提案法を用いることでIAとFAが一貫した説明が可能になることを示すとともに、より少数の集合関数の実行回数で高精度な説明が得られることを示す。</p>]]></content><author><name>吉川 友也 (Yuya Yoshikawa)</name><email>yoshikawa@stair.center</email></author><category term="XAI" /><category term="oral" /><category term="ZOZO Research" /><summary type="html"><![CDATA[2024年度人工知能学会全国大会 (JSAI2024)で、以下の内容を発表しました。 こちらは、ZOZO Researchの皆さんとの共同研究の成果です。 フルバージョンは、ArXivに掲載されています。]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://yuya-y.com/assets/img/card_images/update.png" /><media:content medium="image" url="https://yuya-y.com/assets/img/card_images/update.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">説明ベース最適化の論文がAISTATS2024に採択されました</title><link href="https://yuya-y.com/posts/accepted-to-AISTATS2024/" rel="alternate" type="text/html" title="説明ベース最適化の論文がAISTATS2024に採択されました" /><published>2024-01-24T00:00:00+09:00</published><updated>2024-07-25T02:02:07+09:00</updated><id>https://yuya-y.com/posts/accepted-to-AISTATS2024</id><content type="html" xml:base="https://yuya-y.com/posts/accepted-to-AISTATS2024/"><![CDATA[<p>NTT岩田具治さんと行った研究がAISTATS2024に採択されました。
説明の忠実性評価尺度であるInsertion MetricとDeletion Metricを直接最適化できるように微分可能にし、これを正則化として予測モデルの学習に用いることを提案した論文です。
この方法を使うと、予測モデルの振る舞いに忠実な説明が出せないことがあるGradCAMやLIME等の事後説明器が、安定して忠実な説明を出せるようになります。
Preprintは<a href="https://arxiv.org/abs/2310.12553">こちら</a>です。</p>]]></content><author><name>吉川 友也 (Yuya Yoshikawa)</name><email>yoshikawa@stair.center</email></author><category term="XAI" /><category term="conference" /><summary type="html"><![CDATA[NTT岩田具治さんと行った研究がAISTATS2024に採択されました。 説明の忠実性評価尺度であるInsertion MetricとDeletion Metricを直接最適化できるように微分可能にし、これを正則化として予測モデルの学習に用いることを提案した論文です。 この方法を使うと、予測モデルの振る舞いに忠実な説明が出せないことがあるGradCAMやLIME等の事後説明器が、安定して忠実な説明を出せるようになります。 Preprintはこちらです。]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://yuya-y.com/assets/img/card_images/update.png" /><media:content medium="image" url="https://yuya-y.com/assets/img/card_images/update.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">第74回産総研AIセミナーで講演しました</title><link href="https://yuya-y.com/posts/talk-at-aist-ai-seminar/" rel="alternate" type="text/html" title="第74回産総研AIセミナーで講演しました" /><published>2024-01-23T12:00:00+09:00</published><updated>2024-07-25T02:02:07+09:00</updated><id>https://yuya-y.com/posts/talk-at-aist-ai-seminar</id><content type="html" xml:base="https://yuya-y.com/posts/talk-at-aist-ai-seminar/"><![CDATA[<p><a href="https://www.airc.aist.go.jp/seminar_detail/seminar_074.html">第74回産総研AIセミナー</a>で、我々が構築したメタ動画データセットを用いた動作認識についての講演を行いました。</p>

<h2 id="講演タイトル">講演タイトル</h2>
<p>メタ動画データセットによる動作認識の現状と可能性</p>

<h2 id="概要">概要</h2>
<p>人の動作認識の研究のため、規模や動作ラベルの粒度等が異なる様々な動画データセットが数多く公開されている。しかし、モデルを学習する際は単一のデータセットのみを用いることが多く、豊富なリソースを活かしきれていない。本講演では、動作ラベルの関係性を利用して複数のデータセットを繋げたMeta Video Dataset (MetaVD)を紹介し、複数のデータセットを利用して目的のデータセットに適した動作認識モデルを構築する取り組みを紹介する。また、MetaVDを活用した研究の今後の展望について議論する。</p>

<h2 id="スライド">スライド</h2>
<iframe class="speakerdeck-iframe" frameborder="0" src="https://speakerdeck.com/player/d885b469bcd64fa7b0574b6a553465c8" title="メタ動画データセットによる動作認識の現状と可能性" allowfullscreen="true" style="border: 0px; background: padding-box padding-box rgba(0, 0, 0, 0.1); margin: 0px; padding: 0px; border-radius: 6px; box-shadow: rgba(0, 0, 0, 0.2) 0px 5px 40px; width: 100%; height: auto; aspect-ratio: 560 / 315;" data-ratio="1.7777777777777777"></iframe>]]></content><author><name>吉川 友也 (Yuya Yoshikawa)</name><email>yoshikawa@stair.center</email></author><category term="talk" /><category term="MetaVD" /><category term="action recognition" /><summary type="html"><![CDATA[第74回産総研AIセミナーで、我々が構築したメタ動画データセットを用いた動作認識についての講演を行いました。]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://yuya-y.com/assets/img/card_images/update.png" /><media:content medium="image" url="https://yuya-y.com/assets/img/card_images/update.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">第21回ディペンダブルシステムワークショップで招待講演しました</title><link href="https://yuya-y.com/posts/DSW2023-invited-talk/" rel="alternate" type="text/html" title="第21回ディペンダブルシステムワークショップで招待講演しました" /><published>2023-12-14T12:00:00+09:00</published><updated>2024-07-25T02:02:07+09:00</updated><id>https://yuya-y.com/posts/DSW2023-invited-talk</id><content type="html" xml:base="https://yuya-y.com/posts/DSW2023-invited-talk/"><![CDATA[<p><a href="https://sites.google.com/site/jssstdsw/dsw2023">第21回ディペンダブルシステムワークショップ</a>で、XAIについて講演しました。</p>

<h2 id="講演タイトル">講演タイトル</h2>
<p>説明可能AI：代表的手法と最近の動向</p>

<h2 id="概要">概要</h2>
<p>最近の深層学習モデルは様々なAIシステムで実用化されているが、その中身はブラックボックスになりがちである。しかし、医療や自動運転等のハイリスクなAIシステムで使用する場合には、モデルの出力の根拠や振る舞いの透明性を確保することが重要である。これを実現する技術は説明可能AI (Explainable AI)と呼ばれている。本講演では、説明可能AIの概要及び代表的な手法を説明するとともに、最近の動向を紹介する。</p>

<h2 id="スライド">スライド</h2>
<iframe class="speakerdeck-iframe" frameborder="0" src="https://speakerdeck.com/player/5852d77717524ceba96ebf1c7ffbe48e" title="説明可能AI：代表的手法と最近の動向&nbsp;" allowfullscreen="true" style="border: 0px; background: padding-box padding-box rgba(0, 0, 0, 0.1); margin: 0px; padding: 0px; border-radius: 6px; box-shadow: rgba(0, 0, 0, 0.2) 0px 5px 40px; width: 100%; height: auto; aspect-ratio: 560 / 420;" data-ratio="1.3333333333333333"></iframe>]]></content><author><name>吉川 友也 (Yuya Yoshikawa)</name><email>yoshikawa@stair.center</email></author><category term="talk" /><category term="XAI" /><summary type="html"><![CDATA[第21回ディペンダブルシステムワークショップで、XAIについて講演しました。]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://yuya-y.com/assets/img/card_images/update.png" /><media:content medium="image" url="https://yuya-y.com/assets/img/card_images/update.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">共著論文がISWC2023にポスター論文が採択されました</title><link href="https://yuya-y.com/posts/poster-paper-accepted-at-ISWC2023/" rel="alternate" type="text/html" title="共著論文がISWC2023にポスター論文が採択されました" /><published>2023-12-05T00:00:00+09:00</published><updated>2024-07-25T02:02:07+09:00</updated><id>https://yuya-y.com/posts/poster-paper-accepted-at-ISWC2023</id><content type="html" xml:base="https://yuya-y.com/posts/poster-paper-accepted-at-ISWC2023/"><![CDATA[<p><a href="https://www.airc.aist.go.jp/dkirt/">産総研データ知識融合研究チーム</a>の山本先生、江上先生、福田先生と共同で行った、<a href="https://metavd.stair.center">Meta Video Dataset (MetaVD)</a>に含まれる動作ラベルをCommonsense Knowledge Graph (CSKG)のコンセプトに対応付け、RDF化した研究が、セマンティックウェブの国際会議ISWC2023のポスターとして採択されました。</p>

<h2 id="論文情報">論文情報</h2>

<p>Yasunori Yamamoto, Shusaku Egami, Yuya Yoshikawa, Ken Fukuda, “Towards Semantic Data Management of Visual Computing Datasets: Increasing Usability of MetaVD,” Proceedings of the ISWC 2023 Posters, Demos and Industry Tracks co-located with 22nd International Semantic Web Conference (ISWC2023), Athens, Greece, Nov. 2023. [<a href="https://hozo.jp/ISWC2023_PD-Industry-proc/ISWC2023_paper_494.pdf">paper</a>]</p>]]></content><author><name>吉川 友也 (Yuya Yoshikawa)</name><email>yoshikawa@stair.center</email></author><category term="MetaVD" /><category term="conference" /><category term="poster" /><summary type="html"><![CDATA[産総研データ知識融合研究チームの山本先生、江上先生、福田先生と共同で行った、Meta Video Dataset (MetaVD)に含まれる動作ラベルをCommonsense Knowledge Graph (CSKG)のコンセプトに対応付け、RDF化した研究が、セマンティックウェブの国際会議ISWC2023のポスターとして採択されました。]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://yuya-y.com/assets/img/card_images/update.png" /><media:content medium="image" url="https://yuya-y.com/assets/img/card_images/update.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">説明ベース最適化の研究についてIBIS2023でポスター発表しました</title><link href="https://yuya-y.com/posts/poster-presentation-on-IBIS2023/" rel="alternate" type="text/html" title="説明ベース最適化の研究についてIBIS2023でポスター発表しました" /><published>2023-11-02T00:00:00+09:00</published><updated>2024-07-25T02:02:07+09:00</updated><id>https://yuya-y.com/posts/poster-presentation-on-IBIS2023</id><content type="html" xml:base="https://yuya-y.com/posts/poster-presentation-on-IBIS2023/"><![CDATA[<p>第26回情報論的学習理論ワークショップ (IBIS2023)で、以下の内容でポスター発表しました。
こちらは、先日公開した<a href="https://yuya-y.com/posts/ID-ExpO-paper-on-arxiv/">arXiv論文</a>をまとめたものになります。</p>

<h3 id="タイトル">タイトル</h3>
<p>説明器に忠実な説明をさせるための最適化法</p>

<h3 id="発表者">発表者</h3>
<p>吉川友也; 岩田具治 (千葉工業大学; NTT)</p>

<h3 id="概要">概要</h3>
<p>予測に対する説明の品質は、説明の忠実性、すなわち、説明が予測モデルの振る舞いをどれだけ正しく反映しているかで評価されることが多い。 説明の忠実性を定量評価するために、画像に対しては挿入・削除メトリクスがよく用いられる。 本発表では、微分可能な挿入・削除メトリクスを導入し、これを正則化に利用することで、説明器が忠実な説明を出力できるように予測モデルを最適化する方法を提案する。</p>]]></content><author><name>吉川 友也 (Yuya Yoshikawa)</name><email>yoshikawa@stair.center</email></author><category term="XAI" /><category term="poster" /><summary type="html"><![CDATA[第26回情報論的学習理論ワークショップ (IBIS2023)で、以下の内容でポスター発表しました。 こちらは、先日公開したarXiv論文をまとめたものになります。]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://yuya-y.com/assets/img/card_images/update.png" /><media:content medium="image" url="https://yuya-y.com/assets/img/card_images/update.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">説明ベース最適化の論文をarXivで公開しました</title><link href="https://yuya-y.com/posts/ID-ExpO-paper-on-arxiv/" rel="alternate" type="text/html" title="説明ベース最適化の論文をarXivで公開しました" /><published>2023-10-24T00:00:00+09:00</published><updated>2024-07-25T02:02:07+09:00</updated><id>https://yuya-y.com/posts/ID-ExpO-paper-on-arxiv</id><content type="html" xml:base="https://yuya-y.com/posts/ID-ExpO-paper-on-arxiv/"><![CDATA[<p>Yuya Yoshikawa, Tomoharu Iwata, “Explanation-Based Training with Differentiable Insertion/Deletion Metric-Aware Regularizers.” arXiv [cs.LG], Oct. 2023, <a href="https://arxiv.org/abs/2310.12553">https://arxiv.org/abs/2310.12553</a>. arXiv.</p>

<p>予測に対する説明の品質は、説明の忠実性、すなわち、説明が予測モデルの振る舞いをどれだけ正しく反映しているかで評価されることが多いです。
説明の忠実性を定量評価するために、画像に対しては挿入(Insertion)・削除(Deletion)メトリクスがよく用いられます。
この研究では、微分可能な挿入・削除メトリクスを導入し、これを正則化に利用することで、説明器が忠実な説明を出力できるように予測モデルを最適化する方法を提案しました。</p>

<p>本研究は、NTTコミュニケーション科学基礎研究所の岩田具治さんとの共同研究です。</p>]]></content><author><name>吉川 友也 (Yuya Yoshikawa)</name><email>yoshikawa@stair.center</email></author><category term="XAI" /><category term="paper" /><category term="arxiv" /><summary type="html"><![CDATA[Yuya Yoshikawa, Tomoharu Iwata, “Explanation-Based Training with Differentiable Insertion/Deletion Metric-Aware Regularizers.” arXiv [cs.LG], Oct. 2023, https://arxiv.org/abs/2310.12553. arXiv.]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://yuya-y.com/assets/img/card_images/update.png" /><media:content medium="image" url="https://yuya-y.com/assets/img/card_images/update.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">動作クラス間の関係予測の論文がPattern Recognition Lettersに採録されました</title><link href="https://yuya-y.com/posts/action-class-relation-prediction-paper-accepted/" rel="alternate" type="text/html" title="動作クラス間の関係予測の論文がPattern Recognition Lettersに採録されました" /><published>2023-08-21T00:00:00+09:00</published><updated>2024-07-25T02:02:07+09:00</updated><id>https://yuya-y.com/posts/action-class-relation-prediction-paper-accepted</id><content type="html" xml:base="https://yuya-y.com/posts/action-class-relation-prediction-paper-accepted/"><![CDATA[<p>Yuya Yoshikawa, Yutaro Shigeto, Masashi Shimbo, Akikazu Takeuchi, “Action class relation detection and classification across multiple video datasets,” Pattern Recognition Letters, Volume 173, Pages 93-100, Sep. 2023. [<a href="https://doi.org/10.1016/j.patrec.2023.08.002">paper</a>, <a href="https://arxiv.org/abs/2308.07558">preprint</a>]</p>

<p><a href="https://www.sciencedirect.com/science/article/pii/S107731422100120X">以前の研究</a>で、複数の動作認識データセットを用いた動作認識モデルの学習に活用することを目的として、Kinetics-700やActivityNet等の動作認識データセットの間で、動作クラス間の関係性を人手でアノテーションしたメタデータセット<a href="https://metavd.stair.center">MetaVD</a>を構築しました。
MetaVDを用いるとデータセット拡張により動作認識の汎化性能を上げられる可能性があるのですが、MetaVDでまだ考慮されていないデータセットに関してはその恩恵が受けられない状態でした。
そこで本研究では、動作クラスに紐づく言語情報と動画情報から動作クラス間の関係性予測の方法を提案し、MetaVD外の動作認識データセットをMetaVDに自動的に取り込める可能性を示しました。</p>]]></content><author><name>吉川 友也 (Yuya Yoshikawa)</name><email>yoshikawa@stair.center</email></author><category term="paper" /><category term="MetaVD" /><summary type="html"><![CDATA[Yuya Yoshikawa, Yutaro Shigeto, Masashi Shimbo, Akikazu Takeuchi, “Action class relation detection and classification across multiple video datasets,” Pattern Recognition Letters, Volume 173, Pages 93-100, Sep. 2023. [paper, preprint]]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://yuya-y.com/assets/img/card_images/update.png" /><media:content medium="image" url="https://yuya-y.com/assets/img/card_images/update.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">ステアラボAIセミナーで講演しました（スライドと動画へのリンクあり）</title><link href="https://yuya-y.com/posts/gave-xai-talk-at-stair-seminar/" rel="alternate" type="text/html" title="ステアラボAIセミナーで講演しました（スライドと動画へのリンクあり）" /><published>2023-08-04T12:00:00+09:00</published><updated>2024-07-25T02:02:07+09:00</updated><id>https://yuya-y.com/posts/gave-xai-talk-at-stair-seminar</id><content type="html" xml:base="https://yuya-y.com/posts/gave-xai-talk-at-stair-seminar/"><![CDATA[<p>弊所のAIセミナーでXAIについて講演しました。
Part 1で説明可能AIのこれまでの話、Part 2で説明可能AIのこれからの話をしました。
Part 1は<a href="https://yuya-y.com/posts/published-jsai2023-tutorial-slides/">JSAI2023のチュートリアル</a>を再構成したような内容ですが、Part 2は新たに生成AIにおけるXAIの研究の方向性に関する議論を追加しました。
講演資料と講演動画は公開されていますので、ご興味があればそちらをご覧ください（内容を詰め込みすぎてうまく説明できなかった感があり、反省…）</p>

<h2 id="講演タイトル">講演タイトル</h2>
<p>説明可能AIのこれまでとこれから</p>

<h2 id="概要">概要</h2>
<p>複雑なAIの振る舞いを説明する「説明可能AI」は、AIの透明性を高めるために重要な技術の一つである。有名なところでは、LIME、SHAP、GradCAMといった手法があり、深層ニューラルネット等による予測の根拠を人間が理解できるように提示することが可能である。この他にも様々なアプローチが提案されているため、本講演では、説明可能AIのこれまでの話として、どのような説明可能AIの研究が行われてきたのかを紹介する。その上で、ChatGPTやStable Diffusion等の最近の生成AIの進展を踏まえて、これから先の説明可能AIの可能性や課題について議論する。</p>

<h2 id="講演資料">講演資料</h2>
<iframe class="speakerdeck-iframe" frameborder="0" src="https://speakerdeck.com/player/4c7b83240380445080e5756e1ad0d093" title="ステアラボAIセミナー「説明可能AIのこれまでとこれから」" allowfullscreen="true" style="border: 0px; background: padding-box padding-box rgba(0, 0, 0, 0.1); margin: 0px; padding: 0px; border-radius: 6px; box-shadow: rgba(0, 0, 0, 0.2) 0px 5px 40px; width: 100%; height: auto; aspect-ratio: 560 / 420;" data-ratio="1.3333333333333333"></iframe>

<h2 id="講演動画">講演動画</h2>
<iframe width="560" height="315" src="https://www.youtube.com/embed/Ll4S9SJjWWU" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen=""></iframe>]]></content><author><name>吉川 友也 (Yuya Yoshikawa)</name><email>yoshikawa@stair.center</email></author><category term="talk" /><category term="XAI" /><summary type="html"><![CDATA[弊所のAIセミナーでXAIについて講演しました。 Part 1で説明可能AIのこれまでの話、Part 2で説明可能AIのこれからの話をしました。 Part 1はJSAI2023のチュートリアルを再構成したような内容ですが、Part 2は新たに生成AIにおけるXAIの研究の方向性に関する議論を追加しました。 講演資料と講演動画は公開されていますので、ご興味があればそちらをご覧ください（内容を詰め込みすぎてうまく説明できなかった感があり、反省…）]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://yuya-y.com/assets/img/card_images/update.png" /><media:content medium="image" url="https://yuya-y.com/assets/img/card_images/update.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry></feed>