【Expert Reaction -専門家コメント-】Xのアルゴリズム公開
X(旧Twitter)、「おすすめ」アルゴリズムの一部コード公開 透明性向上も「全体像把握には不十分」と専門家
X(旧Twitter)は、「おすすめ」欄に表示される投稿を決定するアルゴリズムの一部コードを公開した。透明性向上の一歩として評価される一方、専門家は「仕組みの全体像を理解するには不十分」と指摘している。「おすすめ」欄はフォロー外の投稿も表示するため、その選定基準を巡って、特定の人物や思想に有利・不利な操作が行われているのではないかとの批判が続いてきた。今回公開されたコードでは、AIモデルGrokの役割や、投稿の優先順位を決める重み付けの詳細、学習データなどは明らかにされていない。実際に運用されているモデルが公開版と異なる可能性もあり、アルゴリズムの透明化には限界があることが浮き彫りになった。以下日本とドイツのSMCが収集した専門家コメントを紹介する。
Prof. Dr. Tobias Matzner, Professor für Kulturen der Digitalität, Universität Paderborn
ー「おすすめ」欄における投稿ランキングの仕組み
コードから得られる最大の知見は、このフィードがいわゆる人工知能によって大きく左右されている点です。Xはこのシステムを『Phoenix』と呼んでいます。Phoenixは2つの段階で使われています。第一に、あるユーザーが関心を持ちそうな投稿を選び出す段階。第二に、それらの投稿をAIによって評価・並べ替える段階です。つまり、投稿の選択も順位付けも、すべて学習データに基づいて作られたモデルによって行われています。しかし、その学習済みモデルも学習データも公開されていません。知られているのは、チャットボット「Grok」にも使われているモデルが利用されている、という点だけです。
これは、AI時代における透明性の限界を明確に示しています。AIモデルは、学習データに含まれる偏見や党派性、歪み、欠落を引き継いだり、場合によっては強めたりすることが知られています。これは意図的に行われる場合もあれば、無意識のうちに起こることもあります。「Grok」でも、すでにそのような問題が観察されています。「おすすめ」欄でも同様のことが起きている可能性はありますが、モデルや学習データについての情報がなければ、それ以上のことは言えません。
コードから分かるのは、AIが何を予測しようとしているかです。たとえば、その投稿に返信される確率、リポストされる確率、投稿者がフォローされる確率、あるいは通報やブロックが行われる確率などです。しかし、これらの確率がどのような特徴量から導かれているのか、また、それぞれがどれほど重要視されているのかは分かりません。
ーより詳細なコード分析が必要な点
コードは非常に整理され、丁寧に文書化されています。そのため、長期間の分析を行っても、基本的にはこれ以上の新たな知見は得られないでしょう。
ー公開プロセス全体への評価
Xは、とりわけEUから強い公的圧力を受けています。EUは2025年11月、デジタル・サービス法(DSA)の透明性要件を満たしていないとして、Xに1億2,000万ユーロの罰金を科しました。現在も追加調査が進行中です。また、Xがアメリカにおける右傾化の温床になっているという批判もあります。今回の公開は、こうした背景のもとで行われたものだと見るべきでしょう。
しかし、AIに大きく依存するシステムにおいては、ソースコードの公開だけではほとんど透明性は確保されません。AIモデルの特性は、コードを読むだけでは分からず、学習データと訓練済みモデルによって決まるからです。本当の意味での透明性とは、研究者や監督機関が実際の運用環境でアルゴリズムを観察できるよう、包括的なアクセスを提供することを意味します。Twitter時代にはAPIを通じたそうしたアクセスが存在しましたが、イーロン・マスクによる買収後、それらは大きく制限されました。
Prof. Dr. Johannes Breuer, Professor für Digitale Sozialwissenschaften, Universität Duisburg-Essen, und Leiter des Teams „Research Data & Methods“, Center for Advanced Internet Studies (CAIS), Bochum
ー何が公開されたのか
Xの「おすすめ」欄の背後にある推薦システム(レコメンデーション・システム)のコードが公開されました。このシステムは、アルゴリズムによるコンテンツのキュレーションに基づいています。公開には、開発者の間で広く使われているGitHubというプラットフォームが利用されました。GitHub上のリポジトリには、コードに加えて比較的長いREADMEファイルも含まれており、そこではシステムの構造や基本的な仕組みが説明されています。このREADMEによって、少なくとも全体像を把握するための初期的な手がかりは得られます。
個々のスクリプトには一部コメントが付されていますが、すべてではありません。全体として、ドキュメントはもう少し充実していてもよいでしょう。たとえばPythonのライブラリでは、詳細な解説や使用例を含む専用のドキュメント用ウェブサイトを作成するのが一般的です。このコードやシステムを理解するには、相応の情報科学の知識と時間が必要です。
また、コードがどこまで完全なのかを判断するのは難しい問題です。仮に完全だったとしても、欠けているのはシステムを検証するためのデータです。この点は、大規模言語モデル(LLM)が「オープン」と呼ばれる場合と少し似ています。多くの場合、公開されるのは重み(いわゆるオープンウェイト)だけで、学習データは公開されません。Xの「おすすめ」欄について実証的に検討するには、データへのアクセスも不可欠です。しかし、イーロン・マスクの下では、研究目的で以前は利用できたAPI(プログラミング・インターフェース)が閉鎖されるなど、むしろ逆の動きが見られました。
ー「おすすめ」欄における投稿ランキングの仕組み
コードを読むだけで、投稿のランキングに関する具体的な疑問に答えられる範囲は、おそらく非常に限られています。一方ではデータへのアクセスが必要ですし、もう一方では、アルゴリズム自体が定期的に更新・変更されているはずだからです。いつ、どのように、なぜ変更が行われるのかは、ソースコードが公開されただけでは分かりません。
ーより詳細なコード分析が必要な点
推薦システムは一定の複雑さを持っています。イーロン・マスクはX上の投稿でこのシステムを「愚かな」ものだと表現しましたが、分析を容易にするにはドキュメントは十分とは言えません。経験豊富な開発者や情報科学の専門家が、数日間は作業する必要があるだろうと私は見ています。ただし、ClaudeやGitHub CopilotのようなLLMベースのツールを補助的に使えば、分析は多少効率化できるかもしれません。
ただし根本的な問題として、データへのアクセスがなく、アルゴリズムが頻繁に変更される状況で、こうした分析がどれほど意味を持つのか、という疑問もあります。」
ー公開プロセス全体への評価
私は今回の公開を、全体としては「PRスタント」に近いものだと評価しています。特に、この件に関するイーロン・マスクの投稿を見ると、その印象は強まります。「透明性」という言葉は、『我々には隠すことがない』という意味合いで、常に好意的に受け取られがちです。よく知られたグリーンウォッシングになぞらえれば、このような場合は「オープンウォッシング」と呼ぶこともできるでしょう。
もちろん、マスクがこの決定で一歩先に出た面はあり、たとえばFacebookのようにコードをまったく公開しない企業と比べれば、何かを開示したことは事実です。しかし、MastodonやBlueskyのような本当にオープンなプラットフォームでは、単にコードが公開されているだけではありません。ネットワークの構造やガバナンス自体がまったく異なり、実際にオープン、あるいは少なくともはるかに開かれています。
特定のフィードの推薦アルゴリズムのコード以上に重要なのは、たとえばユーザーデータの扱い方や、誤情報やヘイトスピーチへの対策といった問題です。推薦アルゴリズムの「見せかけの公開」は、そうした問題から一時的に世間の目をそらす効果を持ち得ますし、Xやイーロン・マスクの金銭的・政治的な結びつきといった論点から注意を逸らすことにもつながりかねません。
Prof. Dr. Heiko Paulheim, Professor für Data Science, Universität Mannheim
ー何が公開されたのか
公開されたコードは、いわゆる古典的な推薦システムにあたります。過去のユーザーの行動にもとづいて、大量の投稿に対してスコアリングを行い、つまり、どの投稿をそのユーザーが目にするかを選別する仕組みです。企業側によれば、このコードは実際にXのプラットフォーム上で本番運用されているものだとされています。
しかし問題なのは、コード自体は公開されている一方で、本番環境で設定されているすべてのパラメータが公開されているわけではない点です。さらに、いくつかの中核的な機能については外部サービスが使われており、それらは公開されていません。そのため、この公開だけでは、なぜ特定の投稿が「おすすめ」欄に表示されるのかという問いに対して、十分な説明力があるとは言えません。
ー「おすすめ」欄における投稿ランキングの仕組み
スコアリングの基礎となる具体的な数式は、今回の公開には含まれていません。コード中には、「セキュリティ上の理由から」一部が公開されていないと明記されている箇所が複数あります。
ただし、コードからは、投稿のどのような特徴が抽出されているかについての手がかりは得られます。たとえば、その投稿が有料アカウントによるものかどうかといった情報です。こうした特徴量が、最終的に「おすすめ」欄に表示される投稿の選定に用いられている可能性は高いと考えられます。これは、有料アカウントの投稿がより高いリーチを得ることを意味している可能性があります。
一方で、約3年前に導入された「コミュニティノート」の仕組みは、スコアリングには反映されていないようです。この機能では、ユーザーが誤解を招く、あるいは誤った内容に注釈や文脈情報を付与できますが、そうした指摘があっても、投稿の表示頻度が下がるわけではないことになります。 なお、Xが特定の政治的に望ましい、あるいは望ましくない内容を意図的に選別しているという証拠は、公開されたコードからは見いだせません。
ーより詳細な分析が必要な点
多くの重要な箇所、たとえば「おすすめ」欄に投稿が表示される確率の計算には、X独自のAIモデルであるGrokが用いられています。このAIの判断過程は不透明であり、どの要因が意思決定に影響しているのかは不明です。
そのため、理解を深めるには、このAIを対象にした制御された実験を行う必要がありますが、これは相当な時間と労力を要します。加えて、今回公開されているのはGrokの旧バージョンであり、実際に本番環境で使われているものではありません。そのため、仮に実験を行ったとしても、Xの実際の動作を完全に説明できるわけではありません。
ー公開プロセス全体への評価
総じて見ると、公開されたコードの内容に大きな驚きはありません。「おすすめ」欄は基本的に典型的な推薦システムであり、その原理自体はすでによく知られています。 一方で、投稿者に関する情報の抽出や、不適切なコンテンツのフィルタリングといった本質的な要素は、公開されたコードには含まれておらず、外部サービスに委ねられています。さらに、重要な役割を果たしているGrokの実際の運用バージョンも公開されていません。そのため、コード公開によって得られる透明性の向上は、全体として見ればごく限定的なものにとどまると言えるでしょう。
記事のご利用にあたって
マスメディア、ウェブを問わず、科学の問題を社会で議論するために継続して
メディアを利用して活動されているジャーナリストの方、本情報をぜひご利用下さい。
「サイエンス・アラート」「ホット・トピック」のコンセプトに関してはコチラをご覧下さい。記事の更新や各種SMCからのお知らせをメール配信しています。
サイエンス・メディア・センターでは、このような情報をメールで直接お送りいたします。ご希望の方は、下記リンクからご登録ください。(登録は手動のため、反映に時間がかかります。また、上記下線条件に鑑み、広義の「ジャーナリスト」と考えられない方は、登録をお断りすることもありますが御了承下さい。ただし、今回の緊急時に際しては、このようにサイトでも全ての情報を公開していきます)【メディア関係者データベースへの登録】 http://smc-japan.org/?page_id=588
記事について
○ 私的/商業利用を問わず、記事の引用(二次利用)は自由です。ただし「ジャーナリストが社会に論を問うための情報ソース」であることを尊重してください(アフィリエイト目的の、記事丸ごとの転載などはお控え下さい)。
○ 二次利用の際にクレジットを入れて頂ける場合(任意)は、下記のいずれかの形式でお願いします:
・一般社団法人サイエンス・メディア・センター ・(社)サイエンス・メディア・センター
・(社)SMC ・SMC-Japan.org○ この情報は適宜訂正・更新を行います。ウェブで情報を掲載・利用する場合は、読者が最新情報を確認できるようにリンクをお願いします。
お問い合わせ先
○この記事についての問い合わせは「御意見・お問い合わせ」のフォーム、あるいは下記連絡先からお寄せ下さい:
一般社団法人 サイエンス・メディア・センター(日本) Tel/Fax: 03-3202-2514

米国X(旧Twitter)が「おすすめ」欄の選出に関するアルゴリズムの一部コードを公開した点については、一定の評価をし得る。少なくとも、推薦や順位付けがAIを用いたアルゴリズムによって行われていることを明示し、外部からの技術的検討の入口を示した点には意義がある。他方で、懸念点も明確である。アルゴリズムの透明性に関する本質的課題は、「公開するか否か」ではなく、「何をどの水準で公開すべきか」という設計問題にある。
この点は、2025年末に内閣府が公表した「生成AIの適切な利活用等に向けた知的財産の保護及び透明性に関するプリンシプル・コード(案)」にも共通している。同コードは、法的拘束力のないものであるが、AI利活用における透明性の重要性を強調し、説明責任を果たすことを求めている。しかし、公開対象や公開水準については抽象的な原則の提示にとどまり、データセットの詳細内容や、AIを用いたアルゴリズムの判断や社会的影響を外部から実質的に検証可能とする制度設計には至っているとは言い難い。
AI倫理の観点からは、公平性、説明責任、透明性は相互に不可分の要請として同時に求められる。アルゴリズムによる評価やランキングが社会的・経済的影響を及ぼす場合、公平性を確保するためには説明責任が前提となり、その説明責任を実質化するためには、関係者が理解・検証可能な形での透明性が不可欠である。一方で、企業における秘密情報の保護やセキュリティへの配慮も重要である。また、AIデータセットの詳細内容や学習済みモデルの開示となると、企業のリスクや負担が増大するおそれがある。これらの懸念と透明性をいかに両立させるかという点は、大きな課題である。今後の課題は、透明性を原則として掲げるだけでなく、「何をどの水準で公開すべきか」を制度的に設計することにある。