2026-04-25
AI活用の業——2026年カオスマップ・目的別使い分け・プロンプトの書き方
第 7 章 / 全 8 章
第七章 AIの、限界と、倫理——ハルシネーション・個人情報・著作権
AI は、万能ではない。
2026年現在、AIの、三大リスクは、以下である。
- ハルシネーション——AI が、根拠のない、もっともらしい嘘を、自信満々に、語る
- 個人情報・機密情報の、流出——プロンプトに含めた情報が、AI の、学習データに、使われる可能性
- 著作権・知的財産権の、グレーゾーン——生成物の、所有権と、既存著作物との関係
リスク1:ハルシネーション(幻覚)
ハルシネーションとは、AI が、事実と異なる内容を、自信満々に、出力する現象である。
例:
- 「ラプロスは、1日1回、投与が、標準です」——実際は、12時間毎の、1日2回
- 「猫の、腎機能の指標、SDMA は、基準値が、0-14 μg/dL です」——実際の基準値(IRIS ガイドライン)では、数値が異なる場合あり
- 「2026年4月、日本で、ペット保険の加入率は、80%を超えています」——実際は、15〜25%前後
ハルシネーションの、発生頻度は、AIとモデルによって異なるが、概ね、1〜10%程度。特に、医療、法律、金融、最新情報等で、高い。
対処法
- 一次情報で、必ず、裏取り——獣医、弁護士、税理士、公式Webサイト
- Perplexity 等の、出典つきAIを、併用——出典URL で、事実確認
- Chain of Thought(第五章 技法1)で、思考過程を、明示させる——論理の、穴を、見つけやすくする
- 重要情報は、複数のAIで、クロスチェック——Claude と ChatGPT で、同じ質問を、並列で投げて、応答を比較
副業コンテンツでの、対処
副業で、note・ブログを、書く際、AI生成の、事実部分を、自分で、必ず裏取りする。ハルシネーションを、混入させた、有料記事は、読者の信頼を、即座に、失う。読者の、信頼の損失は、副業の、収益経路の、永続的な、棄損に、直結する。第三訓の、稼ぐ装置を、自分で、壊す行為である。
リスク2:個人情報・機密情報の、扱い
プロンプトに、含めた情報は、各AIサービスによって、扱いが、違う。
サービス別の、典型的な方針(2026年4月時点)
- Claude(Anthropic)——Free版と Pro版は、デフォルトで、学習に使用される可能性あり(設定でオプトアウト可能)。企業向けの、API プランでは、使用されない
- ChatGPT(OpenAI)——Free版と Plus版は、デフォルトで、学習に使用される可能性あり(設定でオプトアウト可能)。Team/Enterprise プランでは、使用されない
- Gemini(Google)——Free版と Advanced版は、デフォルトで、学習に使用される可能性あり。Workspace 版では、使用されない
重要なのは、プランを、把握し、設定を、確認すること。各サービスの、「データ使用」「プライバシー」の、設定画面を、一度、開いて、確認する。
個人レベルで、気をつけるべきこと
- 自分や家族の、フルネーム、住所、電話番号、クレジットカード番号、銀行口座番号——プロンプトに、含めない
- 未公開の、医療情報(他人の病名等)——本人の同意なく、含めない
- 会社の、機密情報(顧客リスト、未公開の財務情報、特許出願前のアイデア等)——企業向けプラン以外では、使わない
- 第三者の、写真・動画——本人の同意なく、アップロードしない
猫の情報は、どうか
猫の、名前、種類、病歴等は、一般的には、個人情報に、該当しない(ただし、家族名と連動した、飼い主特定情報になる場合は、注意)。
獣医記録を、AI に、投入する場合:
- 飼い主の、氏名・住所は、マスキング(画像編集ソフトで、塗りつぶし)
- 獣医の、氏名・病院名は、可能な範囲で、削除
- マイクロチップ番号は、不要なら、削除
リスク3:著作権と、知的財産権
AI生成物の、著作権
2026年4月現在、日本の著作権法の、解釈:
- AI単独で、生成した作品の、著作権は、原則として、発生しない
- 人間の、創作的寄与が、明確な場合、著作権が、発生する可能性
- プロンプト自体に、著作権は、認められない(方針)
つまり、AI 生成画像・文章・音声・動画は、法的には、誰のものでもない、可能性が、高い。これは、商用利用時に、注意が必要である。
既存著作物との、関係
AI が、学習データとして、既存の著作物を、使用していることは、多くの訴訟の、対象である。
- 画像生成AIが、特定のアーティストのスタイルを、模倣して、大量の画像を、生成——訴訟の、可能性
- 文章生成AIが、特定の書籍の、文章を、ほぼ、そのまま、出力——侵害の可能性
- コード生成AIが、GPL ライセンスの、コードを、学習——ライセンス違反の可能性
実務的な、対処
- 商用利用する場合、各AIサービスの、利用規約を、必読
- 特定のアーティスト名、作家名、ブランド名を、プロンプトに含めることを、避ける
- 「〜風」「〜のスタイル」という、指示も、慎重に
- 生成物を、そのまま販売せず、人間の、編集・追加を、加える
- 疑問がある場合、弁護士に、相談
AI 倫理の、四つの、原則
本書の、技術指南としての、最後に、AI を、倫理的に、使うための、四原則を、示す。
1. 透明性
AI 生成コンテンツであることを、必要に応じて、明示する。特に、医療情報、専門的助言、ニュース記事、評論等で、AI 生成であることを、隠すと、読者を、誤解させる。
2. 責任
AI の、出力を、そのまま、公開・使用する、全ての信者は、その内容の、責任を、負う。
「AIが、書いたから、自分の責任ではない」は、通用しない。AIは、道具であり、使用者に、責任が、帰属する。
3. 公平性
AI の、バイアスを、認識し、マイノリティ・少数派を、不当に扱う、出力に、気をつける。
AIは、学習データの、偏りを、そのまま、反映する。特定の、性別・人種・地域・宗教に対する、ステレオタイプを、出力する可能性が、ある。
4. 環境負荷
AIの、大規模な、使用は、大量の、計算資源と、電力を、消費する。必要な時に、必要な分だけ、使う。遊びで、無限にプロンプトを投げる行為は、環境への、負荷を、増やす。
AI の、限界と、倫理を、踏まえて、最終章——信者の、日常への、埋め込み、に、進む。