NII Today 第105号
Sep. 2025No.105

生成AI 光と影生成AIの便益、リスク、社会相関とNIIの研究活動

AIの活用により得られる便益とAI悪用のリスク。技術と社会の関係を考察し、両極の課題解決に取り組む、NIIの研究活動の一部をレポートする。

CONTENTS

Interview

国産LLMを医療現場に届ける

NII大規模言語モデル開発の進捗と多分野への適用に向けて

生成AIの基盤技術である大規模言語モデル(LLM)は、世界のビッグテックを中心に急速に開発が進んでいる。日本でも国立情報学研究所(NII)に大規模言語モデル研究開発センター(LLMC)が設立され、多様な分野の研究者が結集して日本語に強い国産のLLMの開発を進めている。そのモデルを活用した医療分野向け国産LLMの構築に取り組む、LLMC副センター長の相澤彰子教授に、生成AIのインパクト、研究の進捗状況や、社会実装に向けた課題を聞いた。

本文を読む

Column

安全で信頼できる日本語医療LLMの研究開発に向けて

SIP統合型ヘルスケアシステムの構築

本文を読む

Article

安心して使えるLLMを育て上げる

大規模言語モデル(LLM)が広く使われるようになるにつれて、その高い能力とともに、安全性にまつわる問題も広く認識されるようになった。国立情報学研究所 大規模言語モデル研究開発センター(LLMC)でも、関根聡・科学主幹ら「安全性ワーキンググループ(WG)」のメンバーが、LLMの安全性や信頼性、透明性を確保すべく研究を続けている。

本文を読む

Interview

生成AIの社会的リスクと向き合う

生成AIは「秒進分歩」ともいうべきスピードで進化し、人々の生活に急速に浸透しつつある。しかし、画像や映像の生成や改変が容易になったことで負の面も顕在化している。犯罪への悪用や深刻な人権侵害、そして社会全体への悪影響も懸念される。私たちはリスクとどう向き合ったらいいのか、技術的に解決する道はあるのか、越前功教授に聞いた。

本文を読む

Interview

ディープフェイク検知技術の社会実装に向けて

生成AI技術の急激な進化で、一般の人々でも画像や動画、音声を手軽に生成できるようになった半面、その非倫理的使用や詐欺など犯罪での使用が問題になっている。そうした悪用を阻止するため、ディープフェイクの検知技術や偽情報・誤情報の判定技術の研究開発に取り組む国立情報学研究所(NII)山岸順一教授に、現在の状況や対策技術について聞いた。

本文を読む

Interview

生成AI 規制と法案を俯瞰する

AIによる生成技術の急速な進化。産業応用への期待が高まる一方で、ディープフェイクの高度化、偽情報の拡散、それらのリスクに、人々は脅威を感じているのではないだろうか。欧州のAI法、米国の規制、日本のAI法成立によって人々の不安は解消されるのか。情報社会相関系の佐藤一郎教授が、現状と課題を俯瞰し考察する。

本文を読む

Column

生成AIを活用した講義動画の質問応答支援システム 藤吉AI先生

研究機関DXシンポ発表より教育現場での生成AI活用

本文を読む

Essay

クリックされない訂正情報

デジタル時代の誤情報対策と心理的ハードル

本文を読む

NII Todayは無料で冊子PDFをダウンロードしてご覧いただけます。

NII Today 第105号

NII Today 第105号

2025年9月発行

・国産LLMを医療現場に届ける
・安全で信頼できる日本語医療LLMの研究開発に向けて
・安心して使えるLLMを育て上げる
・生成AIの社会的リスクと向き合う
・ディープフェイク検知技術の社会実装に向けて
・生成AI 規制と法案を俯瞰する
・生成AIを活用した講義動画の質問応答支援システム 藤吉AI先生
・クリックされない訂正情報

PDFダウンロード
バックナンバー 一覧