今年もあっという間に3分の1を消化してしまいました。
年が明けてから多くの企業が行うAI開発を筆頭に、IT業界は著しく進化しています。

 【コアウェブバイタルズ】LCPとなる画像の対象が変更

Chrome112より、表示サイズに対して実質的なコンテンツが少ない画像の場合、LCPの対象としてみなされないようになりました。

以下、Googleの公式ドキュメントです。

従来、LCP はフルスクリーンの背景画像を無視してきました。また、CSS を介して実装された場合、単色または単純なグラデーションの背景なども無視されてきました。本仕様はコンテンツがなく、単に背景やその他コンテンツのプレースホルダーとして機能するような画像を除外するようになります。

この変更により、表示されるサイズと比較して、それらの画像のコンテンツが非常に少ない場合に他の画像にも適用が拡張されます。しきい値は現在、表示されるピクセルあたり 0.05 ビットの画像データであり、このしきい値を下回る画像は LCP の対象とは見なされません。 このしきい値は、大きな単純な背景画像やビューポート オーバーレイ、および遅延ロードされた画像に時々使用される単純なプレースホルダーをほとんどカバーすると予想されます。

https://chromium.googlesource.com/chromium/src/+/refs/heads/main/docs/speed/metrics_changelog/2023_04_lcp.md

コンテンツとしての役割が無いような画像要素(cssで背景にしているだけの画像要素など)は、サイズ等が大きくてもLCPとしてはカウントはされませんでした。

今回のアップデートにより、コンテンツとしての役割があったとしても、サイズとのバランスによってはLCPの対象にならなくなるケースが生じるといった感じでしょうか。

SEO要素として、何か影響は懸念される?

LCPの対象となる・ならないといった点では、多少影響があるかもしれません。

しかし、よほどのことがなければSEOのランキング順に対する影響は少ないでしょう。

【robots.txt】ChatGPTからのクロールを拒否する記述

昨今、対話型AIとして大人気のAIツールChatGPT。

ChatGPRが直接サイトにクロールしにくることはありませんが、ChatGPTのプラグイン(拡張機能)がサイトにアクセスするケースがあるようです。

サイトに対して完全にアクセスを拒否するためには下記のような記述をrobots.txtに記載しましょう。

User-agent: ChatGPT-User
Disallow: /Code language: HTTP (http)

User-agentを「ChatGPT-User」にするだけで、基本的な記述方法は一般的なrobots.txtと変わりません。

一部のアクセスを許可したり、特定のURLだけ拒否するなどの指定も対応できます。

また、ChatGPTを運営するOpenAIのIPアドレス(下記参照)も公開されているので、IPによるブロックなどの対応も可能です。

23.98.142.176/28

今後は、AIの情報が台頭していく中で、「意図的にAIには参照させずにオリジナルコンテンツとしてのクオリティを高めていくこと」も戦略の1つになりそうですね。

一方で、AIにコンテンツを参照・採用されることでトラフィックやアクセスのきっかけにつながるケースもあると思うので、難しいポイントだとは思います…。

【AI】Googleも検索エンジンにチャットAIを組み込むかもしれない

Googleは2023年3月末に米国アカウント限定でAI「Bard」を展開しました。しかし、あくまでも「Bard」は検索用途として使うものではないと伝えていました。

「BardもChatGPTのように検索のように使ってしまうケースも考慮しているが、両者ともあくまでも大規模言語モデルであり、知識モデルではない。会話形式のテキスト生成には優れているが、テキストが事実に基づいているかを保証することには優れていない」

しかし、bingの検索エンジンはAIがブラウザに付随しており、「GPT-4」を基盤とした脳みそを使っています。Googleも避けては通れないのでしょう。

Bardの強化型を組み込むのか、真新しい違うタイプのAIを組み込んでくるのか、まだ詳細は明かされていませんが、Microsoftに対して相当焦りを感じるような動きになりました。

【ランキング評価】ページエクスペリエンスはランキング”シグナル”であり、ランキング”システム”ではない

非常にわかりづらい内容になりますが、Googleはページエクスペリエンスや表示速度などの概念は、あくまでもサイトランキングの「シグナル」であり、「システム」ではないと言っており話題になっています。

ことの発端は、Googleが公式ドキュメント内のランキングシステムより、いくつかの項目を削除したにもかかわらず、「廃止されたシステム」には追加しなかった点です。

また、ページエクスペリエンスは単なる「概念」と記載があり、余計に混乱を招きました。

ダニーサリバン氏はTwitterにて「ページエクスペリエンスなどを取り除いたからと言って、考慮しなくて良いわけではありません。」と言及しています。

https://twitter.com/searchliaison/status/1651869298883981312?s=20

実装時よりもともと、表示速度等は大きなランキング要因ではないと言われていました。(やらないよりは良いといった感じ)

一定の考慮はしつつも、そこばかりに時間を割く必要はないといった感じでしょうか。

検索エンジンは今後どのように変わっていくのでしょうか

連日、AI系のニュースが多いですね。それだけ企業規模での注目度も高く、いち早く面を取りに行こうという動きでしょうか。

必要に応じて情報を追っていく必要はあるかもしれませんが、どこまで実際に試せるか・試す価値があるのかという悩みがつきません。

この記事が多少なりとも、お役に立てばと思います。
記事を読んで不明な点等がありましたらお気軽にTwitter(@kaznak_com)などでご質問ください。

ではまた。