「AIを兵器に使わせない」——その一言が、僕の乗り換えを決めた。
ChatGPT、Gemini、そしてClaude。複数のAIを行き来しながらも、どれかひとつに腰を落ち着ける気になれなかった。そんな僕がClaudeを本格的に使い始めたきっかけは、ツールの性能じゃなく、企業の「態度」だった。
目次
0. 乗り換えを決めた本当の理由:AnthropicとアメリカのDoD
2026年2月、AIの世界でひとつの事件が起きた。
Claudeを開発するAnthropic社が、米国防総省(DoD)の要求を拒否した。国防総省は「すべての合法的な目的においてClaudeを無制限に使えるようにせよ」と要求した。その要求には、完全自律型兵器——つまり人間の判断なしに標的を攻撃するシステム——への転用も含まれていた。
Anthropicの回答は明確だった。軍との協力自体は継続する。しかし、「自律型の致死兵器システム」と「市民への大規模監視」への利用は、たとえ政府相手でも断る——その2点だけは譲らなかった。
国防総省はAnthropicを「サプライチェーンリスク」に指定し、トランプ大統領も全連邦機関にClaude利用停止を命じた。Anthropicは最大2億ドル規模の政府契約を失うリスクを承知で、逆に国防総省を提訴している。
こうした動きが各地で続く紛争を背景にしていることは、誰の目にも明らかだった。世界のどこかで戦争が起きている。そのAIに自分が使っているツールが使われているとしたら——そう考えたとき、Anthropicの「断る」という選択は、僕には刺さった。
この一連の経緯の詳細は、別記事でまとめている。興味がある方はあわせて読んでほしい。
→ AIサービスに「使ってはいけない用途」を設けることの意味——AnthropicのAI倫理と利用制限の全容
1. そもそも、なぜ「乗り換え」を考えていたのか
仕事柄、調査やリサーチにAIを使うことが多い。セキュリティ関連の情報収集、制度や規制の確認、資料の下調べ……毎日のようにAIに問いを投げかけている。
ChatGPTは優秀だ。ただ、やり取りを重ねるうちに、どこか「きれいすぎる答え」ばかり返ってくる感覚があった。こちらの問いに答えてくれるけど、一緒に考えてくれている感じがしない。壁打ち相手というより、高性能な検索エンジン、みたいな。
Geminiはというと、Google Workspaceとの連携は便利だが、日本語の文章生成がどうしても「固い」。ブログの下書きに使うと、毎回大幅な書き直しが必要になる。
2. 「賢さ」より「一緒に考えてくれる感」が決め手だった
最初に試したのは、仕事のリサーチタスクだ。ざっくりした問いを投げると、返ってきたのは答えだけじゃなかった。「この方向で考えるなら、こういう観点も必要では?」という問い返しがあった。
これが、地味に効いた。
リサーチって、最初から「何を調べるべきか」が明確なわけじゃない。調べながら問いが精緻化されていく。そのプロセスに付き合ってくれるかどうか——そこがツール選びの本質だと、使ってみて気づいた。
ブログ執筆でも同じだ。「こういう記事を書きたい」と伝えると、構成案を出しつつ「こういう切り口もあります」と提案してくる。自分の考えを引き出してくれる感覚があって、これは他のツールにはなかった体験だった。
3. 良い意味での「誤算」:ここまでやってくれるとは
正直に言う。Claudeに対して、最初は「ChatGPTの廉価版」くらいの印象を持っていた。知名度も低いし、日本語対応は後回しにされているのかと思っていた。
その認識は、完全に間違いだった。
日本語の文章品質が高い。ニュアンスを拾う精度が高い。セキュリティの制度的な話や、地方の行政・ビジネス文脈でも、的外れな回答が少ない。そして、長い会話の文脈を維持する能力が高く、「さっきの話の続きで」という使い方が自然にできる。
4. 正直なところ:まだ全部Claudeで完結はしていない
絶賛ばかりもフェアじゃないので、現状も書いておく。
画像生成はできない。最新情報の取得はウェブ検索ツールを使えば補えるが、デフォルトではリアルタイム性に限界がある。料金面も、使い込むとそれなりにかかる。
「万能ツール」としてではなく、「思考パートナー」として使う——そう割り切ったとき、Claudeは本領を発揮すると思っている。
「自律兵器に使わせない」企業のAIを、僕は使う
検索の代わりならGoogle。資料作成の補助ならGemini。でも、「考え抜きたい」「言語化したい」なら、今のところClaudeが僕の一番手だ。
ツールを選ぶとき、性能だけじゃなく「どういう会社が作っているか」も気になる時代になったと思う。政府相手に2億ドルの契約を捨ててでも、倫理的なセーフガードを貫こうとした企業が作るAI——それを使うという選択は、なんとなく自分の価値観にも合っている気がしている。
関連記事
・AIサービスに「使ってはいけない用途」を設けることの意味——AnthropicのAI倫理と利用制限の全容
今回の乗り換えのきっかけになった、AnthropicのAI倫理ポリシーと利用制限の背景を深掘りした解説記事。
0 件のコメント:
新しいコメントは書き込めません。