CONTENTS
Interview
国産LLMを医療現場に届ける
NII大規模言語モデル開発の進捗と多分野への適用に向けて
生成AIの基盤技術である大規模言語モデル(LLM)は、世界のビッグテックを中心に急速に開発が進んでいる。日本でも国立情報学研究所(NII)に大規模言語モデル研究開発センター(LLMC)が設立され、多様な分野の研究者が結集して日本語に強い国産のLLMの開発を進めている。そのモデルを活用した医療分野向け国産LLMの構築に取り組む、LLMC副センター長の相澤彰子教授に、生成AIのインパクト、研究の進捗状況や、社会実装に向けた課題を聞いた。
本文を読む
Column
安全で信頼できる日本語医療LLMの研究開発に向けて
SIP統合型ヘルスケアシステムの構築
本文を読む
Article
安心して使えるLLMを育て上げる
大規模言語モデル(LLM)が広く使われるようになるにつれて、その高い能力とともに、安全性にまつわる問題も広く認識されるようになった。国立情報学研究所 大規模言語モデル研究開発センター(LLMC)でも、関根聡・科学主幹ら「安全性ワーキンググループ(WG)」のメンバーが、LLMの安全性や信頼性、透明性を確保すべく研究を続けている。
本文を読む
Interview
生成AIの社会的リスクと向き合う
生成AIは「秒進分歩」ともいうべきスピードで進化し、人々の生活に急速に浸透しつつある。しかし、画像や映像の生成や改変が容易になったことで負の面も顕在化している。犯罪への悪用や深刻な人権侵害、そして社会全体への悪影響も懸念される。私たちはリスクとどう向き合ったらいいのか、技術的に解決する道はあるのか、越前功教授に聞いた。
本文を読む
Interview
ディープフェイク検知技術の社会実装に向けて
生成AI技術の急激な進化で、一般の人々でも画像や動画、音声を手軽に生成できるようになった半面、その非倫理的使用や詐欺など犯罪での使用が問題になっている。そうした悪用を阻止するため、ディープフェイクの検知技術や偽情報・誤情報の判定技術の研究開発に取り組む国立情報学研究所(NII)山岸順一教授に、現在の状況や対策技術について聞いた。
本文を読む
Interview
生成AI 規制と法案を俯瞰する
AIによる生成技術の急速な進化。産業応用への期待が高まる一方で、ディープフェイクの高度化、偽情報の拡散、それらのリスクに、人々は脅威を感じているのではないだろうか。欧州のAI法、米国の規制、日本のAI法成立によって人々の不安は解消されるのか。情報社会相関系の佐藤一郎教授が、現状と課題を俯瞰し考察する。
本文を読む
Column
生成AIを活用した講義動画の質問応答支援システム 藤吉AI先生
研究機関DXシンポ発表より教育現場での生成AI活用
本文を読む
Essay
クリックされない訂正情報
デジタル時代の誤情報対策と心理的ハードル
本文を読む

