猫道会NEKODOKAI

2026-04-25

AI活用の業——2026年カオスマップ・目的別使い分け・プロンプトの書き方

7 章 / 全 8

第七章 AIの、限界と、倫理——ハルシネーション・個人情報・著作権

AI は、万能ではない。

2026年現在、AIの、三大リスクは、以下である。

  • ハルシネーション——AI が、根拠のない、もっともらしい嘘を、自信満々に、語る
  • 個人情報・機密情報の、流出——プロンプトに含めた情報が、AI の、学習データに、使われる可能性
  • 著作権・知的財産権の、グレーゾーン——生成物の、所有権と、既存著作物との関係
図7 AI の応答の、横には、必ず、人間の、一次情報源を

リスク1:ハルシネーション(幻覚)

ハルシネーションとは、AI が、事実と異なる内容を、自信満々に、出力する現象である。

例:

  • 「ラプロスは、1日1回、投与が、標準です」——実際は、12時間毎の、1日2回
  • 「猫の、腎機能の指標、SDMA は、基準値が、0-14 μg/dL です」——実際の基準値(IRIS ガイドライン)では、数値が異なる場合あり
  • 「2026年4月、日本で、ペット保険の加入率は、80%を超えています」——実際は、15〜25%前後

ハルシネーションの、発生頻度は、AIとモデルによって異なるが、概ね、1〜10%程度。特に、医療、法律、金融、最新情報等で、高い。

対処法

  1. 一次情報で、必ず、裏取り——獣医、弁護士、税理士、公式Webサイト
  2. Perplexity 等の、出典つきAIを、併用——出典URL で、事実確認
  3. Chain of Thought(第五章 技法1)で、思考過程を、明示させる——論理の、穴を、見つけやすくする
  4. 重要情報は、複数のAIで、クロスチェック——Claude と ChatGPT で、同じ質問を、並列で投げて、応答を比較

副業コンテンツでの、対処

副業で、note・ブログを、書く際、AI生成の、事実部分を、自分で、必ず裏取りする。ハルシネーションを、混入させた、有料記事は、読者の信頼を、即座に、失う読者の、信頼の損失は、副業の、収益経路の、永続的な、棄損に、直結する。第三訓の、稼ぐ装置を、自分で、壊す行為である。

リスク2:個人情報・機密情報の、扱い

プロンプトに、含めた情報は、各AIサービスによって、扱いが、違う

サービス別の、典型的な方針(2026年4月時点)

  • Claude(Anthropic)——Free版と Pro版は、デフォルトで、学習に使用される可能性あり(設定でオプトアウト可能)。企業向けの、API プランでは、使用されない
  • ChatGPT(OpenAI)——Free版と Plus版は、デフォルトで、学習に使用される可能性あり(設定でオプトアウト可能)。Team/Enterprise プランでは、使用されない
  • Gemini(Google)——Free版と Advanced版は、デフォルトで、学習に使用される可能性あり。Workspace 版では、使用されない

重要なのは、プランを、把握し、設定を、確認すること。各サービスの、「データ使用」「プライバシー」の、設定画面を、一度、開いて、確認する。

個人レベルで、気をつけるべきこと

  • 自分や家族の、フルネーム、住所、電話番号、クレジットカード番号、銀行口座番号——プロンプトに、含めない
  • 未公開の、医療情報(他人の病名等)——本人の同意なく、含めない
  • 会社の、機密情報(顧客リスト、未公開の財務情報、特許出願前のアイデア等)——企業向けプラン以外では、使わない
  • 第三者の、写真・動画——本人の同意なく、アップロードしない

猫の情報は、どうか

猫の、名前、種類、病歴等は、一般的には、個人情報に、該当しない(ただし、家族名と連動した、飼い主特定情報になる場合は、注意)。

獣医記録を、AI に、投入する場合:

  • 飼い主の、氏名・住所は、マスキング(画像編集ソフトで、塗りつぶし)
  • 獣医の、氏名・病院名は、可能な範囲で、削除
  • マイクロチップ番号は、不要なら、削除

リスク3:著作権と、知的財産権

AI生成物の、著作権

2026年4月現在、日本の著作権法の、解釈

  • AI単独で、生成した作品の、著作権は、原則として、発生しない
  • 人間の、創作的寄与が、明確な場合、著作権が、発生する可能性
  • プロンプト自体に、著作権は、認められない(方針)

つまり、AI 生成画像・文章・音声・動画は、法的には、誰のものでもない、可能性が、高い。これは、商用利用時に、注意が必要である。

既存著作物との、関係

AI が、学習データとして、既存の著作物を、使用していることは、多くの訴訟の、対象である。

  • 画像生成AIが、特定のアーティストのスタイルを、模倣して、大量の画像を、生成——訴訟の、可能性
  • 文章生成AIが、特定の書籍の、文章を、ほぼ、そのまま、出力——侵害の可能性
  • コード生成AIが、GPL ライセンスの、コードを、学習——ライセンス違反の可能性

実務的な、対処

  1. 商用利用する場合、各AIサービスの、利用規約を、必読
  2. 特定のアーティスト名、作家名、ブランド名を、プロンプトに含めることを、避ける
  3. 「〜風」「〜のスタイル」という、指示も、慎重に
  4. 生成物を、そのまま販売せず、人間の、編集・追加を、加える
  5. 疑問がある場合、弁護士に、相談

AI 倫理の、四つの、原則

本書の、技術指南としての、最後に、AI を、倫理的に、使うための、四原則を、示す。

1. 透明性

AI 生成コンテンツであることを、必要に応じて、明示する。特に、医療情報、専門的助言、ニュース記事、評論等で、AI 生成であることを、隠すと、読者を、誤解させる。

2. 責任

AI の、出力を、そのまま、公開・使用する、全ての信者は、その内容の、責任を、負う

「AIが、書いたから、自分の責任ではない」は、通用しない。AIは、道具であり、使用者に、責任が、帰属する。

3. 公平性

AI の、バイアスを、認識し、マイノリティ・少数派を、不当に扱う、出力に、気をつける

AIは、学習データの、偏りを、そのまま、反映する。特定の、性別・人種・地域・宗教に対する、ステレオタイプを、出力する可能性が、ある。

4. 環境負荷

AIの、大規模な、使用は、大量の、計算資源と、電力を、消費する必要な時に、必要な分だけ、使う。遊びで、無限にプロンプトを投げる行為は、環境への、負荷を、増やす。


AI の、限界と、倫理を、踏まえて、最終章——信者の、日常への、埋め込み、に、進む。

この教えを広めるX でシェア