Wikipediaって、空気みたいに使われています。何か調べる。まず見る。そこから別の資料へ飛ぶ。便利すぎて、ときどき空気であることを忘れるくらいです。
だからこそ、2026年3月27日にThe Guardianが報じた「生成AIが書いた本文を受け入れない」という動きは、AIニュースの一つとして流すともったいない。これは、百科事典がAIを嫌った話というより、「この文章に誰が責任を持つのか」を曖昧にしないための線引きとして読むと筋が通ります。要するに、知識の倉庫で急にラベルを手書き不能にしたわけではなく、ラベルを書く人の名前をちゃんと残したかった、という話なんです。

Ban includes two exceptions: AI can still be used for translations, and to make minor copy edits
今回の登場人物
- Wikipedia: 誰でも編集できるオンライン百科事典です。ただし「何を書いてもいい場所」ではなく、出典や検証可能性にかなり厳しいルールがあります。
- 生成AI: 文章や画像を自動生成するAIです。下書きづくりは得意ですが、もっともらしい誤りを混ぜることもあります。
- 検証可能性: Wikipediaで大事にされる考え方で、「その記述が信頼できる出典で確かめられるか」を意味します。雰囲気で正しそう、は通りません。
- 編集責任: 誰が何を書き、どの根拠で直したかを追える状態のことです。共同編集の現場では、これがないと直しようがなくなります。
- 出典: 本や論文や報道など、記述の根拠になる外部資料です。Wikipediaは自分で真実を発明する場所ではなく、既存の信頼できる知識を整理する場所です。
何が起きたか
The Guardianによると、英語版Wikipediaでは、生成AIが書いた本文を百科事典の本文として使わない方針が明確になりました。ここでいうポイントは、「AIツールを一切見るな」ではなく、「本文の責任主体をぼかす使い方は認めない」という線引きです。
この違い、かなり重要です。もし単純にAI嫌いなら、技術の名前が出た時点でシャッターを下ろす話になります。でも今回の判断はそうではなく、百科事典の本文に必要な基準が何かを先に置き、その基準に生成AI由来の文章が合いにくいから止めた、という順番です。
本題
本題は、英語版Wikipediaが守ろうとしたのが文章の書き方ではなく、検証可能性と編集責任の流れだということです。
Wikipediaでは、本文はあとで他の編集者が確認し、直し、異論があれば議論できます。そのためには、どの記述がどの出典に基づき、誰がどう積み上げたのかを追えることが大前提になります。ところが生成AIの文章は、見た目が自然でも、どの文がどの出典のどの部分に対応しているかが曖昧になりやすい。
ここがやっかいなんです。誤字なら直せます。主張が偏っていれば議論もできます。でも「もっともらしい一文が、どこから来たのか分からない」状態は、共同編集の現場でかなり扱いにくい。いわば、参考書のページ番号が全部消えたまま答案だけ提出される感じです。正しそうに見えても、採点側はまあまあ困ります。
なぜ百科事典では特に厳しいのか
SNSやメモアプリなら、生成AIの文章は便利です。たたき台を作る、要点をまとめる、表現を整える。そういう使い方はたしかにあります。
でも百科事典は、読む人が「ここを入口にして他の知識へ進む」場所です。つまり間違いが一つ入ると、その先の理解もまとめてずれる危険があります。しかもWikipediaは、学校の宿題から日常の調べものまで、とにかく使われ方が広い。入口の信頼が崩れると、影響範囲が大きいんです。
さらにWikipediaは、単に情報を並べる場所ではありません。「この記述は中立か」「出典にちゃんと支えられているか」を、編集者同士が細かく点検する仕組みで成り立っています。AI生成文が大量に入り始めると、その点検コストが一気に上がります。便利になるどころか、掃除当番だけ急に増える危険があるわけです。
問われているのはAIの性能ではない
ここで大事なのは、今回の線引きが「AIはまだ精度が低いからダメ」というだけの話ではないことです。たとえ今よりずっと精度が上がっても、共同編集の現場では「どの文を、誰が、どの根拠で置いたか」を追えることが必要です。
AI生成文は、出典の要約や再構成を一見うまくやれてしまうぶん、かえって扱いが難しい。人間が雑に書いた文なら「この人の理解が甘いな」と見えることがありますが、AIの文は整って見えるので、問題が奥へ潜りやすいんです。見た目が優等生なのに、出席簿の名前が曖昧、みたいなやっかいさがあります。
だから英語版Wikipediaが守ろうとしたのは、精度競争に勝つことではありません。知識の更新と訂正を続けられる仕組みそのものです。百科事典は一回当てれば終わりではなく、あとから直せることが命です。その回路を壊すなら、たとえ便利でも本文には入れにくい。今回の判断はそこが核心です。
日本の読者にとって何が大事か
このニュースが日本の読者にとって重要なのは、Wikipediaが日本でもものすごく身近な知識の入口だからです。検索で上に出る、学校でも見る、雑談の確認にも使う。つまりこれは海外のネット文化の内輪話ではなく、日常の「調べる行為」に直結しています。
そしてもう一つ大きいのは、AI時代の情報リテラシーの基準が見えることです。便利だから混ぜる、ではなく、何を便利にしてよくて、何を曖昧にしてはいけないのか。その線を、英語版Wikipediaの今回の方針はかなり分かりやすく示しました。AIの文章を全面否定したのではなく、「責任の所在が曖昧になる本文は困る」と言ったわけです。
これは学校教育にも、報道にも、企業のナレッジ管理にもつながる話です。AIを使うか使わないかより、どこで使い、どこでは人間の責任を残すか。そこが本題になります。
勘違いしやすい点
ここで「Wikipediaは時代遅れ」「AIを怖がっている」と読むのは雑です。むしろ逆で、AI時代だからこそ、何を機械に任せると壊れるのかを先に見極めた判断と見るほうが正確です。
また、生成AIを使った補助作業まで全部禁止したと広く言い切るのも危ないです。今回の核心は、百科事典の本文を誰がどういう責任で書くのか、という部分です。つまり禁止の対象は技術一般ではなく、知識の本体部分における責任の薄まりです。
日本の読者が持ち帰るべきこと
このニュースから日本の読者が持ち帰るべきなのは、「AIを使うな」ではなく、「AIを使っても責任は消えない」という感覚です。学校のレポートでも、仕事の社内文書でも、ニュースの要約でも、便利な下書きツールとして使う場面は増えます。でも最終的に誰の名前で出すのか、どこを根拠として示すのかは、人間側の責任として残ります。
英語版Wikipediaはその原則をかなり厳しめに見せたわけです。厳しいですが、だからこそ分かりやすい。AI時代の情報リテラシーは、「使うか使わないか」より、「どこで責任の線を引くか」で決まる。その見本として、今回の判断はかなり教育的でもあります。
まとめ
英語版Wikipediaが生成AIで書かれた本文の受け入れに厳しい線を引いたのは、AI嫌いだからではありません。百科事典の本文に必要な検証可能性と編集責任を守るためです。
知識の入口は、便利なだけでは足りません。あとから確かめられて、誰が直したか追えて、間違いがあれば修正できることが大事です。今回の線引きは、AIの時代に「それでも人間が引き受けるべき責任はどこか」を、かなりはっきり見せたニュースなんです。