【全社員向け】AIリスク管理/AI倫理研修~著作権侵害・情報漏洩を防ぐ現場の知恵~【60分】

生成AIの利便性の裏には、情報漏洩や著作権侵害といった重大なリスクが潜んでいます。AI利用を禁止するのではなく、正しく恐れながら活用するためには、全社員がリスクの所在と回避方法を理解しておく必要があります。

本講座では、比較的短時間で、想定されるセキュリティ事故事例をもとに、やってはいけない「NG行動」をクイズ形式で学習します。また、ファクトチェックの方法や、著作権に配慮した生成物の利用法など、実務で迷わないための判断基準を養います。

講座の終了後に行う理解度テストも実施可能です。雛型も事務局に進呈しますのでご自由に活用頂けます。

  • AIリスクの全体像と事故事例(講義/20分)

    ・AIの仕組み:学習データへの流用による情報漏洩
    ・AIと著作権:「依拠性」「類似性」
    ・ハルシネーションリスク:フェイクニュース拡散への加担リスク

  • 著作権と倫理(講義/30分)

    ・「AIで作った画像」を使って良い場合、悪い場合
    ・他者の著作物をプロンプトに入れるリスク
    ・AI生成物の著作権は誰のものか

  • 社内ガイドラインの遵守(講義/10分)

    ・自社のガイドラインを確認しよう
    ・万が一トラブルが起きた時の報告フロー

データサイエンティスト
株式会社アリストル
成蹊大学工学部物理情報工学科卒業後、ANA Systemsに入社。基幹システムのデータベースエンジニアを経て、データサイエンティストとして活動。2019年アリストル社に参画し、レコメンドエンジン開発、AIエンジニアリング業務に従事。

一般的なガイドラインの雛形を紹介しますので、策定の支援をさせて頂きます。

本講座はAIが及ぼすリスクについて理解を深めるための講座ですので、技術的な話は殆どありません。

法律用語はできるだけ避け、○×クイズ形式で直感的に理解できるように構成しています。

はい、知らずに部下が使っていたり、取引先からAI生成物が送られてくる可能性があるため、社内全員に必要な知識です。

はい、講座の最後に理解度確認テストを実施します。