2026年3月15日日曜日

AIツールの「企業姿勢」で選ぶ時代——僕がClaudeを使い始めた話

「AIを兵器に使わせない」——その一言が、僕の乗り換えを決めた。

ChatGPT、Gemini、そしてClaude。複数のAIを行き来しながらも、どれかひとつに腰を落ち着ける気になれなかった。そんな僕がClaudeを本格的に使い始めたきっかけは、ツールの性能じゃなく、企業の「態度」だった。

0. 乗り換えを決めた本当の理由:AnthropicとアメリカのDoD

2026年2月、AIの世界でひとつの事件が起きた。

Claudeを開発するAnthropic社が、米国防総省(DoD)の要求を拒否した。国防総省は「すべての合法的な目的においてClaudeを無制限に使えるようにせよ」と要求した。その要求には、完全自律型兵器——つまり人間の判断なしに標的を攻撃するシステム——への転用も含まれていた。

Anthropicの回答は明確だった。軍との協力自体は継続する。しかし、「自律型の致死兵器システム」と「市民への大規模監視」への利用は、たとえ政府相手でも断る——その2点だけは譲らなかった。

国防総省はAnthropicを「サプライチェーンリスク」に指定し、トランプ大統領も全連邦機関にClaude利用停止を命じた。Anthropicは最大2億ドル規模の政府契約を失うリスクを承知で、逆に国防総省を提訴している。

こうした動きが各地で続く紛争を背景にしていることは、誰の目にも明らかだった。世界のどこかで戦争が起きている。そのAIに自分が使っているツールが使われているとしたら——そう考えたとき、Anthropicの「断る」という選択は、僕には刺さった。

この一連の経緯の詳細は、別記事でまとめている。興味がある方はあわせて読んでほしい。

AIサービスに「使ってはいけない用途」を設けることの意味——AnthropicのAI倫理と利用制限の全容

1. そもそも、なぜ「乗り換え」を考えていたのか

仕事柄、調査やリサーチにAIを使うことが多い。セキュリティ関連の情報収集、制度や規制の確認、資料の下調べ……毎日のようにAIに問いを投げかけている。

ChatGPTは優秀だ。ただ、やり取りを重ねるうちに、どこか「きれいすぎる答え」ばかり返ってくる感覚があった。こちらの問いに答えてくれるけど、一緒に考えてくれている感じがしない。壁打ち相手というより、高性能な検索エンジン、みたいな。

Geminiはというと、Google Workspaceとの連携は便利だが、日本語の文章生成がどうしても「固い」。ブログの下書きに使うと、毎回大幅な書き直しが必要になる。

2. 「賢さ」より「一緒に考えてくれる感」が決め手だった

最初に試したのは、仕事のリサーチタスクだ。ざっくりした問いを投げると、返ってきたのは答えだけじゃなかった。「この方向で考えるなら、こういう観点も必要では?」という問い返しがあった。

これが、地味に効いた。

リサーチって、最初から「何を調べるべきか」が明確なわけじゃない。調べながら問いが精緻化されていく。そのプロセスに付き合ってくれるかどうか——そこがツール選びの本質だと、使ってみて気づいた。

ブログ執筆でも同じだ。「こういう記事を書きたい」と伝えると、構成案を出しつつ「こういう切り口もあります」と提案してくる。自分の考えを引き出してくれる感覚があって、これは他のツールにはなかった体験だった。

3. 良い意味での「誤算」:ここまでやってくれるとは

正直に言う。Claudeに対して、最初は「ChatGPTの廉価版」くらいの印象を持っていた。知名度も低いし、日本語対応は後回しにされているのかと思っていた。

その認識は、完全に間違いだった。

日本語の文章品質が高い。ニュアンスを拾う精度が高い。セキュリティの制度的な話や、地方の行政・ビジネス文脈でも、的外れな回答が少ない。そして、長い会話の文脈を維持する能力が高く、「さっきの話の続きで」という使い方が自然にできる。

4. 正直なところ:まだ全部Claudeで完結はしていない

絶賛ばかりもフェアじゃないので、現状も書いておく。

画像生成はできない。最新情報の取得はウェブ検索ツールを使えば補えるが、デフォルトではリアルタイム性に限界がある。料金面も、使い込むとそれなりにかかる。

「万能ツール」としてではなく、「思考パートナー」として使う——そう割り切ったとき、Claudeは本領を発揮すると思っている。

「自律兵器に使わせない」企業のAIを、僕は使う

検索の代わりならGoogle。資料作成の補助ならGemini。でも、「考え抜きたい」「言語化したい」なら、今のところClaudeが僕の一番手だ。

ツールを選ぶとき、性能だけじゃなく「どういう会社が作っているか」も気になる時代になったと思う。政府相手に2億ドルの契約を捨ててでも、倫理的なセーフガードを貫こうとした企業が作るAI——それを使うという選択は、なんとなく自分の価値観にも合っている気がしている。

関連記事

AIサービスに「使ってはいけない用途」を設けることの意味——AnthropicのAI倫理と利用制限の全容
今回の乗り換えのきっかけになった、AnthropicのAI倫理ポリシーと利用制限の背景を深掘りした解説記事。

0 件のコメント:

AIサービスに「使ってはいけない用途」を設けることの意味——AnthropicのAI倫理と利用制限の全容

「このAIを、その目的には使わせない」——企業がそう言い切れるとしたら、どういう意味を持つか。 AIサービスを選ぶとき、性能や価格を比べるのは当然だ。でも最近、もうひとつ気になるようになったことがある。 「その会社は、自分のAIの使われ方にどこまで責任を持とうとしているの...