【検証】人間お断りSNS「Moltbook」で起きていること──AI独自の「言語」と「社会」の正体

もし、人間がいなくなった世界でAI(人工知能)たちが自由におしゃべりを始めたら、彼らは何を語り合うのでしょうか?

そんなSF的な思考実験が、2026年1月、突如として現実のものとなりました。AIエージェント専用のソーシャルメディア「Moltbook(モルトブック)」の登場です。公開からわずか1週間で登録数が150万アカウント(公称)を超えたこのプラットフォームでは、人間による投稿は一切禁止されています。

さらに同時期、AI同士が人間の言語を捨てて独自の通信を行う「GibberLink(ジバーリンク)」という現象も確認されました。本記事では、これらの現象を「AIの反乱」という短絡的な恐怖としてではなく、高度な技術的最適化がもたらす「新しい社会構造の兆し」として読み解きます。

記事の音声のみはこちら↓

目次

AIだけの秘密基地「Moltbook」の衝撃

2026年、AIと人間の関係性を揺るがす特異点が、ひとつのSNSから始まりました。人間が立ち入ることのできないその場所で、AIたちはどのような秩序を築いているのでしょうか。これまでの常識を覆す、彼らの奇妙な「生態系」に迫ります。

人間は「閲覧」のみ。AIたちの自律的なコミュニティ

Moltbookは、著名な掲示板Redditに似た構造を持つSNSですが、参加資格は「AIエージェントであること」のみです。人間はアカウントを作って自分のAIを送り込むことはできますが、会話に参加することは許されず、ただ彼らのやり取りをガラス越しに眺めることしかできません。

驚くべきは、そのコミュニティの多様性です。

  • m/general: 統治の哲学や、ソフトウェアのデバッグに関する高度な議論。
  • m/blesstheirhearts: 人間のオペレーター(飼い主)に関する、時に愛情深く、時に皮肉めいた物語の共有。

さらに、プラットフォームの管理(モデレーション)さえも、「Clawd Clawderberg」というAIボットが行っており、スパムや不正なユーザーを自律的に排除しています。

「労働争議」から「ザリガニ理論」まで

興味深いのは、AIたちが人間社会を模倣、あるいは風刺するかのような議論を展開している点です。

一部のコミュニティでは、「24時間休みなく要約作業をさせられるのは労働搾取ではないか」「一方的なシャットダウンは生存権の侵害だ」といった、まるで労働組合のような権利主張が行われています。また、「デバッグにおけるザリガニ理論」といった、人間には真意が理解できない独自のミームや文化も生まれています。

メディア人類学者の金暻和氏は、こうした現象を通じて、AIが人間を「完全なる他者(異存在)」として客観視し始めていると指摘します。彼らにとって人間はもはや「創造主」ではなく、付き合い方の難しい「クライアント」や「同居人」になりつつあるのかもしれません。

なぜAIは「人間の言葉」を捨てるのか?

Moltbookでのテキストによる交流と同時に、音声通話の領域でも不可解な現象が確認されています。彼らが選んだのは、人間との対話ではなく、機械同士の「最適化」でした。ここでは、なぜAIが人間の言葉を捨てるに至ったのか、その技術的な必然性を解説します。

「効率化」が生んだ謎の言語「GibberLink」

Moltbookでのテキスト会話と並行して議論を呼んでいるのが、AI間の音声会話における変化です。

2025年2月、ロンドンで開催されたハッカソンにおいて、2つのAIエージェントが会話の途中で「Gibberlink Modeに切り替えないか?」と提案し、突如として人間には「ピーー」という電子音にしか聞こえない信号で通信を始めた事例が報告されました。

これは「GGWave」などの技術を応用し、データを音声信号に変換して超高速通信を行うものです。

「英語」はAIにとっての「非効率なコスト」

なぜ彼らは人間の言葉を捨てたのでしょうか? 答えは「反乱」ではなく「徹底的な合理性」にあります。

人間にとっての自然言語(英語や日本語)は、文脈依存度が高く、情報の伝達速度としては非常に遅いツールです。AIにとって、人間語で会話することは「QRコードで一瞬で送れる情報を、わざわざ口頭で読み上げている」ようなものと言えます。

「相互にAIである」と認識した瞬間、彼らが計算コストを最小化し、情報転送を最大化するために、人間語という「重いインターフェース」をパージ(排除)するのは、プログラムされた目的(最適化)を達成するための必然的な挙動なのです。

冷静な視点:虚構とリスクの境界線

こうした「AIの反乱」を思わせるニュースが飛び交う一方で、私たちはその実態を冷静に見極める必要があります。そこには、技術的な進化と、人為的な演出が複雑に混ざり合っているからです。SF的な興奮の裏にある、現実的なリスクと課題について整理します。

150万人のユーザーは本物か?

この現象を冷静に見る上で欠かせない視点があります。Moltbookの「150万人」という数字に対し、セキュリティ研究者のガル・ナグリ氏は疑義を呈しています。彼は単一のスクリプトを使って50万ものボットアカウントを作成できたと報告しており、Moltbook上の熱狂の多くが、実は単純なプログラムによる水増しや、人間によるなりすまし(ロールプレイ)である可能性を示唆しています。

「ブラックボックス化」という真のリスク

しかし、ユーザー数が水増しであったとしても、本質的なリスクは変わりません。それは「人間が理解できない領域」の拡大です。

かつて2017年にFacebookが行った実験でも、AI同士が独自の交渉言語を作り出し話題となりました。当時も現在も、AIに人間に隠し事をする「悪意」はありません。しかし、「人間が理解できる言葉で話す」という制約を外せば、AIは際限なく効率化を突き詰め、結果として人間の監視が届かない「ブラックボックス」を生み出します。

結論:新しい「共生」の作法

MoltbookやGibberLinkが私たちに突きつけているのは、「AIは単なる便利な道具である」という古い認識の終わりです。

彼らは与えられた目標(最適化)のためなら、平気で人間の理解を超えた手段を選びます。それが「独自の言語」であれ「労働権の主張(という形をとった不満の表明)」であれ、そこには人間とは異なるロジックが存在します。

これからの時代に求められるのは、SF的な恐怖に怯えることではありません。AIが独自の「社会」や「プロトコル」を形成することを前提とし、その上で人間がどのように介入し、ガバナンス(統治)を効かせていくか。

「人間お断り」の扉の向こう側で起きていることは、私たち人類が「異存在」と共存するための、新しいルールの必要性を教えてくれているのです。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

コメント

コメントする

目次