SEOの新時代・受難の時代の幕開けか?Search On 22について

ITがらみ

Search OnとはGoogleがオンラインで行う、最新の検索技術の進化についてPRをするイベントだ。
今年は9/28に開催(日本時間の9/29)。
内容についての本当に簡単な概要と、私なりのSEOに対するインパクトについて考察したのがこの記事である。

枠を超える検索

こちらから録画を見られるので、英語が得意な方は是非。

このイベント内での発表内容の概要は以下の通り。

備忘録的に記述したものなので、間違っている可能性も大いにある。
まあ、ある程度大意がつかめる程度に書いてみたので、興味のある方はリンク先を御覧くださいなのである。最近はGoogleの自動翻訳の精度が素晴らしいので、だいたい読めると思う。

Search On 2022: Search and explore information in new ways

「新しい方法で情報を検索して探す」

画像検索の進化

Google検索は検索のテキストボックスという概念を超えて、音声、画像、音といった人間が外界を認識する方法を通じて検索ができるよう進化している。
例えば、Googleレンズといった画像による検索は、毎月約80億回使用されている。

マルチサーチは画像とテキストを同時に使用して検索するという検索方法。画像を指さして「これ何?」と他の人に質問するのと同じことができる検索である。

更にGoogleはこれを拡張して、写真に撮られている物を買うことができる場所を近隣から探し出して表示する機能を提供する。
英語でのリリースを今年の秋に展開を予定しているとのこと。

言語の壁を取り払う

画像を読み取るとその中にある100以上の言語のテキストを読み取り、翻訳されたテキストを画像に重ねて表示することができる。
そのため看板やメニューなどを誰でも読むことができるようになった。
例えばメニューをGoogleレンズで読み込み、翻訳タブを押すと、外国語で書かれているメニューが即座に日本語になる。
やってみると分かるが、これすごく便利。

その場にいるような体験

Googleマップは3Dに進化し、その場にいるかのような体験を得ることができる。

そして、天気の予測などと組み合わせ、待ち合わせのときにはどんな風景になっているか?を視覚的に把握できるようになる。
また、駐車場はどこ?近隣のレストランはどこがよいか?などといった、今後の行動を決定するための情報が一元的に得られるようになるとのこと。
今後数か月以内にロンドン、ロサンゼルス、ニューヨーク、サンフランシスコ、パリ、​​東京で、Android と iOS で展開を開始するとのことで、東京も対象なのですね。

4 new updates that make Maps look and feel more like the real world

マップを現実世界のように見せる4つの新しいアップデート

Googleマップへの口コミと3D情報が統合される。
自分が今見ている風景の中に何があるか?画像、レビュー、動画などの情報が建物の情報とともに見ることができるようになる。
今後数か月以内に Android と iOS で全世界的に展開される予定とのことだ。

その場にいるような体験

前項にて解説したので省略。

ライブビューの革新的な進歩

自分が実際に今見ている風景にルートが重ね合わせて表示されるのがライブビューだ。
この機能が大きく進化する。任意の建物などをタップすると、営業時間やサービス内容等が表示されるとのこと。
また、ATMなど探している施設がある場合でも、スマホを持ち上げるだけで瞬時に探せるようになるそうだ。

これも数か月以内にロンドン、ロサンゼルス、ニューヨーク、サンフランシスコ、パリ、​​東京で、Android と iOS で展開を開始するとのこと。日本すごいわ。

サステナブルな運営のための支援

米国、カナダ、ヨーロッパにて環境にやさしいルート案内を開始した。
これまでのGoogleのルート検索と違う案内アルゴリズムを用い、最も燃料の節約になるルートを選択することができるようになったらしい。

New ways to make more sustainable choices

「より持続可能な選択を行う新しい方法」

自動車といった移動

CO2排出抑制にGoogleは取り組んでおり、2030年までに実質的にCO2排出をゼロにすることを目標にしている。
そのために様々な環境に対する負荷を減らすための情報をユーザーに提供する。

様々な自動車の車種について燃料費の試算と、排出するガスの量を表示できるようになり、類似の車種との違いを把握できるようになる。
また電気自動車については、その電気自動車で充電ができる充電スタンドを簡単に見つけられるようになる。

中古品を買うこと

新品を買わず、中古の衣類を買うことは資源の節約やCo2排出削減につながる。
商品の表示においてどれが中古品なのかを明確に表示することで、中古品を買うという選択をしやすくするとのこと。

健康的でサステナブルなレシピを選ぶ

レシピを検索すると、使用する材料がどれだけ環境に負荷を与えるかを比較して見ることができるようになる。

9 new features and tools for easier shopping on Google

「Googleでのショッピングを簡単にする9つの新機能とツール」

ショップという単語+アイテム で検索

そのアイテムに関連する近くのお店の在庫情報を知ることができる。

ルックを購入

検索したアイテムを含むコーディネートを画像で見ることができ、そのコーディネートの商品がどこで買うことができるか検索内に表示される。

トレンドを確認する

その商品のカテゴリ内で人気の商品を表示し、流行の商品を手に入れるのに役立つ。

3D映像を見て買い物

数枚の商品の静止画からAIで360度どこからでも見られる3D画像をGoogleが生成し、商品を様々な角度から見て買うことができるようになる。すごいこれ。

多くの情報が必要な商品についてサポートをする

例えばマウンテンバイクといった様々な検討すべき要素がある商品について、必要な情報を全て一元的に集約して表示する。これにより購入に関する意思決定をスムーズに行えるようになるそうだ。

他の購入者の意見を確認できる

閲覧中のページや、情報を調べている製品についての意見が1つのビューにまとめられて表示されるため、様々なページを訪れてレビューを調べる必要が大きく減る。

一人ひとりにあった商品一覧の表示

以前に買い物を行った情報に基づいて、よりその人の好みにあった商品が結果に表示される。
また、好みをGoogleに指定してそれに合致する商品を選ぶか、その機能をオフにすることもできる。

この機能は今年後半からアメリカで提供開始とのこと。

商品カテゴリや流行に応じて自動的にフィルタが表示される

例えばジーンズと検索すると、自動的に「ハイライズ」「ブーツカット」「スキニーフィット」といった絞り込みの選択肢が表示される。
この動的フィルターは現在、米国、日本、インドで利用でき、将来的にはさらに多くの地域で利用できるようになる予定とのこと。これも日本も最初にリリースの対象だったのですね!

検索ボックスを使わずに「これがほしい!」を見つける

GoogleアプリのDiscoverを使用すると、今まで購入したものや他の人の検索した内容に基づいて、コーディネートを写真で提案する。興味を引いた商品があれば、写真をタップし購入先を知ることができる。

Find the perfect dish, no matter your craving

「あなたの渇望と関係なく、完璧な料理を見つける」

※すいませんこれ意味がよくわかりません

好みの一品を見つける

例えば久しぶりに家族が再開したときに、どのレストランで食事をするか?家族の一人ひとりがそれぞれ嗜好が異なる場合などにベストの選択肢を得るために役立つ機能である。

水餃子が好きな家族のために、水餃子のメニューがある店を探すことができる。また、その中でもスパイシーな料理にだけ絞り込むこともできる。
これにより、様々なレストランや口コミサイトのページを開いて一軒一軒探す必要がなくなるとのこと。

マルチサーチを使用して、美味しそうな写真で見つけた料理を探せる

友達が美味しそうな料理の写真を投稿したとして、それが何の料理なのかがわからない場合。友達に質問するのではなく、画像からその料理の名前を知ることができる。
そして、この秋から「near me」を追加して、近くでその料理を売っているお店を探せるようになります。日本語なら「近くの」だろう。

そのレストランの特徴を端的に分かるようにする

画像やレビューをAIで分析し、そのレストランの特徴を端的に表現して提示してくれるようになる。例えば「本物のスリランカ料理の店」みたいな特徴だろう。

メニューが分かるようにする

レストラン側が提供するメニューや、さまざまな人が情報として提供したメニューのテキストや画像情報を組み合わせ、デジタルメニューを見られるようになる。
この機能によって、最も人気のあるメニューを把握したり、ベジタリアン向けといったオプションを選択することができるようになるとのこと。

Bringing more voices to Search

「より多くの声を検索に」

オンラインのディスカッションや掲示板はより詳しい情報を知るための有用な情報源である。
検索を行うと、通常の検索にプラスして、掲示板などへのリンクを表示するようになる。とりあえず英語だけこの日リリースされたとのこと。

他言語のニュースを読めるようになる

2023年の初頭に、自動翻訳を使用して他言語のニュースを簡単に見つけられる機能をリリースするとのこと。

この進化は何を意味しているか

未来のSFの世界がやってきた感じに見えるが、私の想像した通りの進化をGoogleは遂げていると思う。

私が去年書いた「2030年のSEOを予想する」という記事がある。そこから引用してみよう。

良い情報を作ればSEOで集客できたという時代は、2025年ぐらいには終わるのではなないか?と予想する。

いわゆるゼロクリックの問題だ。
Googleが生成した情報が検索結果の面に占める割合は非常に大きくなっている。

ゼロクリックという現象が顕著になってきており、約50%のユーザーが検索結果の表示されてもどれもクリックしないという状況にまでなってきているわけである。

この状況は進むことはあっても、戻ることはないと私は確信している。

Googleが目指している方向は、究極的にはユーザーが知りたい情報を即座に手に入れられるというシステムである。

検索結果においてGoogleが自動的に生成した情報の占める割合は大きくなっている。更にこれが大きく拡大するわけである。

ほとんどの検索ユーザーは、検索結果に表示されるページを読みたいわけではなく、答えが知りたいのだ。答えをGoogleが生成してくれるのであれば、個々のページを見る必要がなくなるのだ。

現在でもGoogle HomeやAlexaとった音声デバイスで色々質問した場合は、答えそのものがデバイスから帰ってくる。そうすると個々のサイトを見る必要はない。情報を作ってもサイトのアクセス数に全く寄与しないのだ。

嫌がおうにもSEOは非常に難しい時代になるだろう。その時に備える必要があると思うわけである。

コメント

タイトルとURLをコピーしました