マルチリピアーキテクチャ
デュアルレイヤーインフラストラクチャの技術的な詳細
概要
従来の翻訳プラグインは、「ビジュアルレイヤー」で動作します。ブラウザでテキスト文字列をスワップします。これは人間の読者には満足ですが、検索クローラーやAIエージェントにとっては混沌とした環境を作り出します。
MultiLipiは、初のプラットフォームとして デュアルレイヤーアーキテクチャ:
HTML レイヤー
人間と Googlebot の両方に対し、完全にレンダリングされたローカライズ済みのページを提供します。
データレイヤー
大規模言語モデル(LLM)専用に最適化された、並列の構造化インフラストラクチャ(Markdown + JSON-LD)。
以下は、当社の 10ステップパイプライン 静的URLをグローバルでAI対応のエンティティに変換します。
インフラストラクチャ設定
財団
コンテンツの一語に触れる前に、物理的なルーティングとセキュリティレイヤーを確立します。
ステップ1:インテリジェントプロビジョニング&SSL
接続時に、当社のシステムはお客様のオリジンCMS(Shopify、Webflow、WordPress、またはCustom Stack)をフィンガープリント化し、最適なインジェクション方法を決定します。
- アクション: ローカライズされたエンドポイント用に専用SSL証明書を即座にプロビジョニングします。
- メカニズム: セキュアハンドシェイクプロトコル(TLS 1.3)は、オリジンサーバーとエッジノード間のデータ転送を暗号化し、First Byteまでの時間(TTFB)に遅延を一切追加しません。
ステップ2:URLアーキテクチャマッピング
SEO戦略に合わせた3つの異なるルーティングアーキテクチャをサポートしています。
オプションA:サブドメイン(最速のデプロイ)
構造: es.example.com, fr.example.com
最適: 関心の分離を必要とする大規模エンタープライズサイト。
オプションB:サブディレクトリ(最大のSEO権威)
構造: example.com/es/, example.com/fr/
メカニズム: 軽量なリバースプロキシスクリプト (Cloudflare Worker または Nginx 設定) を提供し、 /es/ トラフィックをエッジサーバーにルーティングし、ドメイン権威を統一します。
オプション C: ccTLD (ローカルドメインの支配)
構造: example.es, example.fr
メカニズム: 高度なCNAMEマッピングにより、カスタム国別ドメインをローカライズエンジンにポイントさせることができます。
コンテンツ処理
ニューラルレイヤー
UIの機能を損なうことなく、完璧なローカライズを保証するために、「コンテンツ」と「コード」を分離します。
ステップ3: ディープインジェストとスラッグのローカライズ
クローラーがお使いの元のHTMLを解析し、動的なコンテンツマップを構築します。
- コード分離: DOMを解析して翻訳可能なテキストノードを特定し、HTML属性、スクリプト、クラスを「ロック」します。これにより、右から左(RTL)言語でもサイトのレイアウトが壊れることはありません。
スラッグ翻訳: 標準的なプロキシとは異なり、URLパス自体を翻訳します。
オリジナル:example.com/products/red-running-shoesローカライズ済み:es.example.com/productos/zapatillas-rojas影響:ユーザーの意図と一致させることで、ローカル検索結果でのクリック率 (CTR) を向上させます。
ステップ4:「スパイダーウェブ」内部リンク
「孤立したページ」(ローカライズされたページが存在するがリンクされていない一般的な問題)を防ぐため、動的なルーティングブロックを挿入します。
- アクション: A
または非表示のナビゲーションブロックがDOMに追加されます。 コンテンツ:
- 言語スイッチャー: のEN、FR、DEバージョンへの直接リンク 現在 ページ。
- クロスリンク: 同じ言語バケット内の他の関連ページへのリンク。
- 理由: これにより、ボットはデッドエンドに到達することなく、ローカライズされたネットワーク全体を継続的にクロールできます。
SEOレイヤー
Googleコンプライアンス
重複コンテンツのペナルティを回避するため、Googleのエンジニアリングガイドラインを厳守します。
ステップ5:タグの挿入(Hreflang & Canonical)
自動的に変更するのは 提供されるすべてのページの、ネットワークとの関係を厳密に定義するため。
Hreflangマップ: フルインジェクションを行います x-default およびページバリエーションごとのローカライズされたマップ。
自己参照型カノニカル: スペイン語のページは、Googleが英語のページと重複するのではなく、ユニークなアセットとしてインデックスに登録することを保証するために、それ自体を正規ソースとして示しています。
GEOレイヤー
AIインフラストラクチャ - 秘密のソース
「秘密のソース」。このフェーズでは、AIエージェント(ChatGPT、Claude、Gemini)向けの並列Webを構築します。
ステップ6:IDとスキーマの挿入
サイトを「文字列」(テキスト)から「モノ」(エンティティ)へと変換します。
- アクション: システムは、ID グラフに基づいて JSON-LD スクリプトを生成します。
コンテキストロジック:
- グローバル: すべてのページに組織スキーマ(ロゴ、ソーシャル、創設者)を注入します。
- ページレベル: コンテンツタイプを自動検出します(例:
/blog/記事スキーマをトリガーします。/product/価格と在庫を持つ商品スキーマをトリガーします)。
- 結果: ロボットはあなたのブランドを検証済みのエンティティとして認識し、ナレッジパネルに表示されるために不可欠です。
ステップ7:「AIツイン」の作成(Markdown生成)
人間向けに提供されるすべてのHTMLページについて、非表示の並列Markdownファイルを生成します(.md)LLMトークン制限用に最適化されています。
最適化プロセス:
- コンテキストヘッダー: AI モデルに最初の 500 トークンで主要な事実 (誰、何、価格) を提供するために、ファイルの最上部に「チートシート」の概要を注入します。
- テーブル抽出: HTML テーブルは、クリーンな Markdown パイプに変換されます
| 列 | 列 |完璧なデータ抽出のために。 - ノイズ除去: すべてのCSS、JavaScript、および装飾
divは削除され、純粋なセマンティックシグナルのみが残ります。
ステップ 8: ロボットマップ (llms.txt)
ルートレベルの llms.txt ファイル (例: es.example.com/llms.txt).
- 目的: これは標準の「ロボット用サイトマップ」です。AIエージェントに、クリーンなMarkdownファイルがどこにあるかを正確に伝えます(
.md) の代わりに、厄介な HTML をスクレイピングすることを強制しません。 コンテンツ:
- グローバルサイト説明(システムプロンプト)。
- 「AIツイン」バージョンを指す優先URLのリスト。
安全性とメンテナンス
ループ
安定性、セキュリティ、正確な分析を確保します。
ステップ 9: 競合防止プロトコル
SEOの競合を防ぐため、「人間が使うWeb」と「AIが使うWeb」を厳密に分離します。
- ルール: 生成されたすべてのMarkdown(
.mdファイルがX-Robots-Tag: noindexHTTPヘッダー。 - その理由: これにより、GooglebotはMarkdownファイルを無視するように指示され(重複コンテンツのペナルティを防ぎます)、AIエージェント(例:
GPTBot)を介して自由に消費できるようにします。llms.txtマップ。
ステップ10:センティエントアナリティクス
グローバルインフラストラクチャのパフォーマンスをリアルタイムで追跡します。
- ボット監視: エッジログはAIクローラー(GPTBot、ClaudeBot、Perplexity)からの特定の要求を特定し、「モデルシェア」を可視化します。
- ジオ検証: 「マッチ率」を追跡します。これは、特定の地域(例:スペイン)のユーザーのうち、正しい地域化されたバージョン(例:
es.example.com).
アーキテクチャを体験する準備はできましたか?
当社の10ステップパイプラインが、あなたのウェブサイトをグローバルでAI対応のプラットフォームに変える方法をご覧ください。