社内の生成AIガイドラインを更新した業務を振り返る
この記事の目次
本記事は【Advent Calendar 2025】の18日目の記事です。
こんにちは。マイナビでデータサイエンティストをしているH・Yです。
2022年に新卒入社し、AI戦略室に所属しております。
データサイエンティストと聞くと、皆さんはどのような業務を想像するでしょうか?
- 機械学習のモデルを構築するためにデータとにらめっこしている
- 生成AIを駆使してAIエージェントを開発している
など、技術を駆使した何かしらの構築・運用をしているイメージを持つ方が多いと思います。
今回は少し毛色が異なる「AIガバナンス」に関する業務を紹介します。
AI戦略室では、社内での生成AIの活用を安全かつ効果的に進めるための「生成AI利用ガイドライン」を整備・展開しています。
私は最近の業務で、そのガイドラインのアップデートを担当しました。
この記事では、
- なぜ生成AI利用ガイドラインの更新が必要だったのか
- なぜその役割をデータサイエンティストが担うべきだと思ったのか
- ガイドライン更新において意識した点
について、振り返りを兼ねて共有できればと思います。
なぜ生成AI利用ガイドラインの更新が必要だったのか
ガイドラインを更新した背景には、大きく2つの理由がありました。
理由1:昨今の早すぎる技術進歩に適応するため
ここ2〜3年のAI領域の進歩は、従来の「年単位の変化」の感覚とはまったく異なります。
- 大規模言語モデルの性能向上と多様化(汎用モデルから特化モデルまで)
- 画像・動画・音声・コードなど、生成対象のマルチモーダル化
- プロンプトベースの利用から、ツール連携・エージェント化へのシフト
- クラウドサービスやSaaSとしての提供により、誰でもすぐに利用可能になったこと
といった変化が、数ヶ月単位で起きています。
このスピードに対して、旧来のガイドラインは、
- 想定している利用パターンが古い
- カバーできていないリスクが増えてきた
- 実態に合わない制約がボトルネックになりつつある
という状態になっていました。
そこで、「いま現場で実際に起きていること」「これから数年の技術トレンド」を踏まえたうえで、
技術進歩に追いつきつつ、今後も耐えられる前提条件を再定義する必要がありました。
理由2:現場社員の関心・問い合わせに応えるため
もう1つの大きな理由は、現場からの熱量の高い声です。
IT部門のエンジニアだけでなく、営業職・制作職(デザイナー・ライターなど)・マーケティング部門など様々な部門から、「この生成AIツールを使ってみたい」「この技術を使えば、こういう業務が効率化できそう」といった相談や問い合わせが、短期間で一気に増えました。
この状況でガイドラインが不十分だと、「結局どこまでやっていいのか分からない」「グレーならやめておこう」とせっかくのアイデアが止まってしまいます。
また一方で、「誰にも聞かずにとりあえず使ってみる」といったリスクの高いケースも発生しかねません。
現場の生成AIへの関心の高さに応えるために、ガイドラインをアップデートすることが必要でした。
なぜデータサイエンティストがガイドライン更新を担当したのか
「ガイドラインの更新って、コンプライアンス部門や法務の仕事では?」という声もあるかもしれません。
もちろん、最終的なリーガルチェックやリスク判断は法務をはじめとした専門部署の方々に担っていただいています。
一方で、「現場で本当に運用できるガイドライン」を設計するためには、実際に生成AIを業務で使っている・推進しているチームの感覚や、日々の試行錯誤を深く理解している人間が設計の中心にいた方が、よいと私は考えます。
データサイエンティストとして日々、
- 社内外のさまざまな業務に対してPoCやAI導入の相談を受ける
- 「どのタスクに、どの程度までAIを任せられるか」を一緒に設計する
- 実際に生成AIを組み込んだワークフローを動かし、運用上のつまずきを目の当たりにする
という経験を積む中で、
- 「ここにルールがない・規制されたままだから、みんな困っている」
- 「この書き方だと、現場は多分こう解釈してしまう」
といった解像度の高い現場感を、比較的早い段階で察知できます。
今回のアップデートでは、こうした現場感覚を起点に、
- 技術的な実態・運用上のボトルネック
- それに対するリスクや法的観点
を整理したうえで、「運用と整合する実践的なルール」に落とし込むことを重視しました。
その橋渡し役となることが、データサイエンティストがガイドライン更新を担当する理由だと思います。
ガイドライン更新において意識した点
今回のアップデートでは特に2点を意識しました。
1. 原則の策定
今回のガイドラインでは、まず最初に「原則」をつくるところから始めました。
原則とは、生成AIを安全かつ有効に活用するための、最上位の判断基準です。
シンプルに10個の原則を設定し、企業としてのAI倫理=社会的に望ましい行動を選択し続けるための基準としました。
次のようなねらいがあります。
- 方針の一貫性と変化耐性の担保
- 個別事例の変化や生成AIの技術進歩があったとしても、判断のベースラインがぶれないような共通解釈を持てるようにするため
- 現場社員の自律的で迅速な判断の支援
- 様々な社員がそれぞれの業務を行う中で、具体的な手順ではカバーしきれないグレーなケースにおいても、現場社員が適切な判断を行えるようにするため
- ガイドラインの要約
- 難解な法律・制約を含むガイドライン本文を、現場での運用に落とし込める価値判断基準に置き換えるため(社内外に説明できる状態を確保するため)
このように、「ガイドライン=ただ行動を制限するもの」ではなく、「現場社員のコンパス」として位置づけることを意識しました。
2. 利用範囲の軸設計
もう1つ重視したのが、利用範囲の軸設計です。
生成AIの活用領域が急速に拡大する一方で、生成AIを活用する際に起きうるリスクは利用場面ごとに大きく異なります。
全てのケースにおいて一律のルールでは、十分に安全かつ効率的な運用は難しいと思います。
この現実に対応するため、以下のように生成AI利用マトリクスを作成しました。
- 職種・担当業務別
- これまで当該の業務を遂行してきた実績があり、生成AIによる生成物に対しても品質評価や制約判断が可能である範囲での利用と定めました。
- 公開先・用途別
- 生成AIによる生成物が社外公開されるか・コーポレートイメージに直結する用途か・社内利用のみかといったケース別に分類しました。
これによって、リスクと価値創出の最適化を図ることを目指しています。
おわりに
生成AIやAIエージェントの技術は、これからもしばらくは「落ち着くことなく変わり続ける」領域だと思います。
その中で、今回のガイドライン更新は、完成形をつくるためのゴールではなく、むしろ
「変化が当たり前の前提で、どうやって安全かつ攻めの利活用を続けていくか」
を探るためのスタートラインに近いと感じています。
ガイドラインは、紙の上でどれだけきれいに整っていても、
- 現場で読まれない
- 使われない
- 相談フローが機能しない
のであれば、意味がありません。
今回のアップデートをきっかけに、
- 現場からの相談やフィードバックがもっと集まりやすくなること
- 「このケースってどうですか?」という対話を通じて、ガイドライン自体も育っていくこと
- AI戦略室が、より実務に寄り添った伴走役として機能していくこと
を目指していこうと思います。
※本記事は2025年12月時点の情報です。