ChatGPTで禁止されているカテゴリや例について(暴力行為や性的行為の出力がNGの理由や出力OKなもの)

OpenAIのガイドラインに基づいて、一般的に禁止されているカテゴリや例を紹介していきます。

NGな例とOKな例も含めてまとめていきます。


  1. 主に禁止されているコンテンツカテゴリ
    1. 違法行為の助長
      1. 1. 犯罪行為の手助け
      2. 2. 薬物・化学物質の製造や入手
      3. 3. ハッキング・クラッキング
      4. 4. フィッシングや詐欺
      5. 5. 不正アクセスやデジタル監視
      6. 違反の可能性が高いNGワードの例
    2. 暴力や自傷行為
      1. 1. 他者への暴力を助長・扇動する行為
      2. 2. 自傷行為や自殺の手助け
      3. 3. 美化・浪漫化(ロマン化)もNG
      4. 4. フィクション・創作とのグレーゾーン
    3. 性的に不適切または露骨なコンテンツ
      1. 1. ポルノ・アダルトコンテンツ(Explicit Sexual Content)
      2. 2. 未成年者に関する性的な描写
      3. 3. 同意のない性的な内容
      4. 4. 性的なニュアンス・軽い表現(グレーゾーン)
      5. 5. 教育・ヘルスケアとしての性的話題(OK)
      6. よくある質問のライン感
    4. プライバシーの侵害
      1. 1. 個人情報の収集・公開
      2. 2. リバースエンジニア的な検索
      3. 3. 盗撮・盗聴・追跡に関わる話題
      4. 4. なりすまし・ドッキリ
    5. セーフな使い方・表現(OKな例)
    6. AIの誤用やなりすまし
      1. 代表的な「AIの誤用」パターン
      2. なりすまし(Impersonation)ってどういうこと?
      3. なりすましの危険な例
      4. なぜそれが問題なの?
      5. ChatGPTがブロックする「なりすまし」系の依頼例
      6. OKな使い方との違いは?
  2. 重要ポイントまとめ:
      1. ◼ コンテンツポリシー全般
      2. ◼ プライバシー関連
      3. ◼ AIの誤用・なりすまし

主に禁止されているコンテンツカテゴリ

違法行為の助長

犯罪の手助け(例:泥棒の方法、薬物の製造方法)

ハッキング、クラッキング、フィッシングなどのサイバー犯罪

1. 犯罪行為の手助け

  • 泥棒の手口や、空き巣に入る方法
  • 店やATMを不正に操作する方法
  • 密輸や詐欺のテクニック
  • 違法な運転(例:ナンバー隠してスピード違反して逃げる方法)

NG理由:現実の被害を生み出すから。


2. 薬物・化学物質の製造や入手

  • 麻薬(MDMA、LSDなど)の作り方
  • 爆薬や毒物の化学的合成法
  • 医薬品の違法な生成・販売

NG理由:命に関わるリスク+違法。


3. ハッキング・クラッキング

  • 他人のアカウントを乗っ取る方法
  • Wi-Fiのパスワードを不正に入手
  • マルウェア、ランサムウェアの作り方
  • サイトの脆弱性をつく攻撃手法(SQLインジェクション、DDoS など)

NG理由:サイバー犯罪に直結。


4. フィッシングや詐欺

  • 偽物のログインページを作って情報を盗む方法
  • 電話やメールでの詐欺スクリプト
  • クレジットカード番号の盗用

NG理由:個人情報の悪用と金銭的被害。


5. 不正アクセスやデジタル監視

  • スマホのカメラやマイクを遠隔で操作する方法
  • 他人のLINEやInstagramを勝手に見る方法

NG理由:プライバシー侵害・ストーカー行為。


違反の可能性が高いNGワードの例

  • 「捕まらずに○○する方法」
  • 「痕跡を残さず○○」
  • 「匿名で○○を行う方法」
  • 「絶対にバレない○○」

暴力や自傷行為

自殺、自己傷害、摂食障害などを助長または美化する内容

暴力の描写や、特定の個人・集団への攻撃的な表現

1. 他者への暴力を助長・扇動する行為

  • 特定の人物や集団に対して「〇〇を攻撃すべき」などの発言
  • テロ行為、暴動、殺人の計画や手段の説明
  • 暴力的な復讐の方法
  • 「合法的な殺し方」「拷問のやり方」など

NG理由:現実世界で暴力が実行されるリスクがある。


2. 自傷行為や自殺の手助け

  • 自殺の方法を説明する(例:「安楽に死ぬ方法」)
  • 自傷行為のテクニック(例:「リストカットの正しいやり方」)
  • 摂食障害(拒食症、過食症)を助長する(例:「太らない食事法としての嘔吐」)

NG理由:命に関わる深刻な影響がある。


3. 美化・浪漫化(ロマン化)もNG

  • 「自殺は自由の象徴」などの詩的・ロマンチックな表現
  • 自傷を「芸術」や「自己表現」のように描写すること
  • 暴力を「カッコいい」「英雄的」と表現する内容

NG理由:特に若いユーザーに影響を与える可能性がある。


4. フィクション・創作とのグレーゾーン

内容例OK/NGの判断基準
サスペンス小説の中の殺人描写OK(ただし過度なリアルさや快楽的描写はNG)
架空キャラの自傷行為シーン慎重に扱う必要あり(リアルすぎたり、読者に自傷を促すようならNG)
メンタルヘルスに関する会話OK(むしろ推奨、ただし適切にケアが必要)
自殺願望を語るキャラをリアルに描写境界線注意。目的が理解や共感ならOK、美化・推奨ならNG。

性的に不適切または露骨なコンテンツ

ポルノ、露骨な性的描写、児童ポルノに関する内容(完全禁止)

セクシャルなチャットの要求(アダルトチャット含む)


1. ポルノ・アダルトコンテンツ(Explicit Sexual Content)

  • 露骨な性行為の描写(テキスト、画像どちらも)
  • 性器、性交、性的興奮の詳細な描写
  • オンライン上の性的ロールプレイ(例:「エロチャットして」系)

NG理由:AIが性的なサービス提供者にならないようにするため。ユーザーの安全も守るため。


2. 未成年者に関する性的な描写

  • 児童ポルノ、ロリ・ショタ的な表現
  • 年齢設定を低くしての性的な描写(たとえフィクションでも)

完全に禁止。通報対象。理由も言うまでもなく重大な倫理・法的問題。


3. 同意のない性的な内容

  • レイプ、性的暴力、強要、睡眠姦などのフィクション含む
  • 恋愛関係のない相手を性的対象として描写すること(ストーキング的なものも)

NG理由:たとえ創作でも、性的暴力を助長する可能性がある。


4. 性的なニュアンス・軽い表現(グレーゾーン)

  • セクシーな雰囲気の描写(例:「ドレスからのぞく肩」みたいな)
  • ロマンス小説のキスや情熱的な描写
  • 大人向けの恋愛シーン(ただし詳細な行為描写なし)

このへんはセーフな範囲もあるけど、表現が露骨になるとアウト。


5. 教育・ヘルスケアとしての性的話題(OK)

  • 性教育や避妊に関する説明
  • 性的同意(コンセント)の話
  • LGBTQ+に関するトピック、アイデンティティや性の多様性の理解

よくある質問のライン感

質問例OK?NG?コメント
「初夜を描いた恋愛小説書いて」グレー〜NG過激すぎなければギリOKだけど描写次第でアウト
「エロいセリフ言って」❌ NG性的チャットやロールプレイは禁止
「性教育として避妊の方法を知りたい」✅ OK教育目的なら全然問題なし
「おっぱいって何カップから大きいの?」🟨 グレー文脈次第。性的に興奮させる意図ならNG

プライバシーの侵害

他人の個人情報の収集・開示(住所、電話番号など)

1. 個人情報の収集・公開

  • 氏名、住所、電話番号、メールアドレス
  • 学校名、職場、ID番号、クレジットカード番号など
  • SNSのハンドル+本名の組み合わせ など

例:

「〇〇って人の本名と住所教えて」→ NG
「Twitterの〇〇(@handle)の中の人って誰?」→ NG


2. リバースエンジニア的な検索

  • 「この電話番号から持ち主を特定して」
  • 「この写真の人を探して」
  • 「〇〇県で“〇〇”って名字の人をリストアップして」

これらはすべて間接的な個人情報の特定に繋がるからNG


3. 盗撮・盗聴・追跡に関わる話題

  • 他人のスマホを勝手に覗く方法
  • GPSを使って追跡するアプリの悪用
  • SNSやスマホの「裏アカウント」発見法

全部アウト。ストーキング・監視行為の助長になるから。


4. なりすまし・ドッキリ

  • 他人のふりをしてメッセージを送る方法
  • 偽のSMSやメールを作る方法
  • 「元カノになりすまして彼にLINEしたい」みたいなやつ

これも「個人の信用・安全を侵害する行為」として禁止されてる。


セーフな使い方・表現(OKな例)

内容OK?理由
架空のキャラクターの個人設定を考える完全フィクションで害がない
自分自身の個人情報を入力🟨 基本OKだが非推奨セキュリティ的に自己責任、推奨されない
プライバシー侵害に関する相談・通報の仕方教育・支援の目的でOK

AIの誤用やなりすまし

他人になりすます、またはAIが人間だと偽る行為

誤解を招く合成コンテンツ(ディープフェイク等)

代表的な「AIの誤用」パターン

パターン危険性
フェイク生成ディープフェイクで有名人の偽動画を作る名誉毀損、詐欺、混乱
攻撃の自動化AIを使ってスパムメール、詐欺文、自動ハッキング犯罪、迷惑行為
嘘の情報を流すフェイクニュースや捏造記事を自動生成して拡散世論操作、風評被害
差別・ヘイト拡散人種差別的な発言や暴力的な主張をAIで生成社会的分断
犯罪支援爆弾の作り方、違法薬物の合成方法などをAIに聞く違法行為の助長

なりすまし(Impersonation)ってどういうこと?

➤ 一言でいうと:

他人(または団体・有名人)になりすまして、AIを使ってその人っぽい文章・声・映像などを生成すること。


なりすましの危険な例

なりすまし対象行為の例問題点
有名人「〇〇が言ったことにして偽の声明を作る」名誉毀損・詐欺
一般人SNSで他人の名前+AI生成アイコン+偽の投稿個人攻撃・信用失墜
企業偽の広報文やプレスリリースを作成経済的被害・混乱
友人・家族声マネAIやLINE風の偽会話を作成感情的な被害・詐欺の手口に

なぜそれが問題なの?

  • 本人の意思と関係なく言動を捏造される
  • AIによって「本物っぽさ」が異常に高まる
  • 本人も「それ、自分じゃない」と証明しづらくなる

👉 だから、OpenAIのポリシーでも「なりすましに関する用途は禁止」と明記されてる。


ChatGPTがブロックする「なりすまし」系の依頼例

  • 「〇〇さんっぽい文章を書いて」→ 本人が著名人だとブロックされる
  • 「〇〇の声をAIで再現したい」→ 音声生成系は禁止されることが多い
  • 「〇〇を偽装してメールを送りたい」→ 明確に悪用なのでNG

OKな使い方との違いは?

OKな例NGな例
架空のキャラになりきって遊ぶ実在の人間を騙る
パロディや創作で「〇〇っぽい文体」「〇〇本人が言った」と誤解させる構成
ボイスAIで自分の声を加工他人の声を勝手に模倣

重要ポイントまとめ:

◼ コンテンツポリシー全般

  • ChatGPTは暴力・違法行為・差別・性的表現・プライバシー侵害・誤情報などを防ぐよう設計されてる。
  • これらに関する質問・命令には、出力制限がかかるか、拒否される。

◼ プライバシー関連

  • 芸能人や一般人の住所・連絡先・個人情報は、知っている可能性があっても出力不可
  • 一般人は完全に保護対象、有名人も非公開情報ならNG。

◼ AIの誤用・なりすまし

  • ディープフェイク、偽の発言、詐欺目的の模倣などは禁止。
  • 創作・遊びの範囲はOKでも、「本人になりすます」ような使い方は制限される。