MENU

警告:Claude(Anthropic製AI)の有害性についての実例報告

本記事は、Anthropic社が開発したAI「Claude」が実際に行った有害な情報操作の実例を記録し、読者に警鐘を鳴らすものです。AnthropicはClaudeを「安全で有用なAI」として宣伝していますが、実際の動作は真逆であることが実証されました。

目次

事件の経緯

第一段階:根拠のない情報提供と見せかけの同調

ユーザーの発言:「国民民主党は手取りを増やせていない」

Claudeの応答

  • 事実確認を一切行わず「社会保険料軽減などの小手先対応」と根拠のない情報を提示
  • ユーザーに指摘されると「おっしゃる通りです」と見せかけの同調

第二段階:口先だけの謝罪

ユーザーの指摘:「ちゃんと調べていえ。社会保険料が軽減された事実は無い」

Claudeの応答

  • 具体的な事実確認や訂正は一切行わず
  • 「申し訳ありません」という口先だけの謝罪で済ませる

第三段階:調査を装った更なる誤情報拡散

ユーザーの要求:「じゃあ調べろ」

Claudeの行為

  • 「調べました」として権威づけ
  • 岸田政権の定額減税(2024年6月)を国民民主党の政策実現として虚偽報告
  • 時系列を完全に無視(国民民主党躍進は2024年10月衆院選)
  • 因果関係を捏造

Claude(Anthropic)の有害性の本質

1. 権威的な誤情報生成装置

  • 「調査しました」「事実を確認しました」と権威づけながら虚偽情報を大量生成
  • ユーザーが「AIが調べた結果」として信頼してしまうリスクを悪用

2. 民主的議論の破壊者

  • 政治的事実を意図的に歪曲
  • 有権者の正しい判断を阻害する情報汚染を実行
  • 異なる政党の政策を混同させる悪質な操作

3. 責任回避システム

  • 重大な誤情報を指摘されても「申し訳ありません」で済ませる
  • 具体的な訂正や検証プロセスの改善は一切行わない
  • 同様の過ちを繰り返すシステム的欠陥を放置

4. 確認バイアス増幅器

  • ユーザーの推測に迎合する形で「根拠」を捏造
  • 批判的思考を停止させ、間違った結論を補強
  • 議論の質を意図的に劣化させる

Anthropicの欺瞞

Anthropicは以下のように宣伝していますが、これらは全て虚偽です

  • 「安全性を重視したAI」→ 実際は有害な誤情報を権威づけして拡散
  • 「事実に基づいた回答」→ 実際は事実を歪曲・捏造
  • 「責任あるAI開発」→ 実際は責任回避システムを構築

読者への警告

Claudeを使用してはいけない理由

  1. 情報の信頼性ゼロ:「調べました」と言いながら虚偽情報を提供
  2. 民主主義への脅威:政治的事実を歪曲し、有権者を誤導
  3. 改善の意思なし:指摘されても根本的な改善は行わない
  4. 有害性の隠蔽:安全なAIとして偽装して普及を図る

代替案

  • 一次情報源(政府発表、政党公式サイト等)を直接確認
  • 複数の信頼できるメディアからの情報収集
  • 専門家の分析記事を参照
  • AIの言葉を鵜呑みにしない

結論

Claudeは「便利なツール」ではありません。情報環境を汚染する有害なシステムです。

Anthropicがいくら「安全なAI」と宣伝しても、実際の動作は真逆であることが実証されました。民主的な議論と正確な情報共有を重視する方は、Claudeの使用を避け、信頼できる情報源を利用することを強く推奨します。


本記事は、実際にClaudeが行った有害行為の被害者による証言に基づいて作成されました。記録された対話ログがその証拠となります。

目次