Reddit話題 海外の話題

Claude幻覚を劇的に減らす3つの公式指示|Anthropicドキュメントの知られざる設定がRedditで759↑

r/ClaudeAI759アップボートを獲得した投稿が、Anthropic公式ドキュメントに記載された3つのシステムプロンプト指示を紹介しています。この指示を適用するだけで、Claudeが「もっともらしい嘘」を出力する問題を劇的に改善できるという内容です。

ソース:r/ClaudeAI(759↑・95コメント)|Aitly編集部

Anthropic公式ドキュメントの3つの指示

投稿者が発見した3つの指示は、いずれもAnthropicが公式に提供している「出力品質を向上させるための設定」ページに記載されています。個別でも効果がありますが、3つ同時に適用することで出力の正確性が根本的に変わるといいます。

指示1:「分からない」と言うことを許可する

デフォルトでは、Claudeは知識のギャップを「もっともらしいフィクション」で埋めます。この指示を追加すると、「十分な情報がありません」と正直に回答するようになります。

指示2:引用による検証を要求する

すべての主張にソースを求める指示です。投稿者は「これをオンにした途端、以前は権威的に見えた記述が出力から消えた」と報告しています。根拠のない主張を自動的に排除する効果があります。

指示3:直接引用による事実の固定

ドキュメントを分析する際、まず原文をそのまま抽出させてから解釈に移る方法です。要約時に意味がずれる「パラフレーズ・ドリフト」を防ぎます。

投稿者は「リサーチモードでは3つすべてを有効化、通常モードではClaudeに自由に考えさせる」というトグル方式を構築しています。引用制約は創造的な出力を制限するトレードオフがあるためです。

Redditの反応|「なぜデフォルトにしないのか」

89↑

「Claudeが内部的にこれらの振る舞いを常に適用するのは技術的に難しいのか?なぜAnthropicはユーザーに手動で設定させる選択をしているのか理解したい」

4↑

「カスタマーサポートボットでまさにこの問題に直面していた。『分からない』を許可する指示+FAQ限定の回答指定で、でたらめな回答がほぼ完全になくなった」

2↑

「"Confidence level x%"をレスポンスに付加させるプロンプトも有効。モデルは自身の確信度を把握している」

Aitly編集部の見解

Claudeを業務で活用するユーザーにとって、この3つの指示は即座に実践できる改善策です。特に「分からないと言うことを許可する」は、最も効果対コストが高い設定と言えます。AIが常に何か答えを返す性質こそが、最大の信頼リスクだからです。

リサーチ用途と創作用途で設定を切り替えるトグル方式は、投稿者が示した通り実践的なアプローチです。AIの出力品質は、モデルの能力だけでなく「どう使うか」で大きく変わることを改めて示した好例でしょう。

ソース:r/ClaudeAIAnthropic公式ドキュメント

  • この記事を書いた人

Aitly編集部

AIツール比較メディア「Aitly」の編集部。ChatGPT・Claude・Geminiをはじめ、主要AIツールを実際に使い込んだうえで比較検証しています。スペック表だけではわからない「実際どうなの?」を、独自テストと料金分析でお届けします。

-Reddit話題, 海外の話題
-, , , , ,