令和の時代に検索避け

生成AI(の学習)については、
「自分は使わない、
学習されたくはないが現状の法律では『禁止』と明示しても効力はない、と聞いたので
言葉では表明せず学習阻害対策をする」というスタンスで今のところ対峙しています。
SNS(X、Bluesky、Pixiv)に載せる画像はバチバチに学習阻害対策をかけていますが、
自サイトにはきれいな画像で載せたいな~ということで

自分のサイト、ブログをAIに学習させない方法

↑を参考にさせて頂きました。

よく考えたらそらそうよなんですが、
これは古の(二次創作)個人サイトで広く用いられていた
検索除けの手法でしたね……。
それなりの期間公式との関係がセンシティブな(○○禁と言われるような)ジャンルで
個人サイトをやっていたので、
親の顔よりとは言わないまでもかなりノスタルジックな感覚がよみがえりました。

一応ブログで解説してくださっているなかの「ある程度知見のある」者に該当し、
未だにWinSCPを現役で使っているのでFTPでrobots.txtをアップロードしました。
もう一つの、同じレンタルサーバの中に作っている
別名のポートフォリオ的個人サイトのほうはアップロードでエラーなどもなく完了しました。
(WordpressでテーマはCocoonを使用しています)

こちらのサイトはOGP画像画像設定のために
All in One SEO というプラグインを使っているため、
robots.txtをアップロード後ダッシュボードを開くと
All in One SEO→ツール→Robots.txtエディターへ自動で飛ばされ
「robots.txtを使うなら(編集するならだったかな)このエディターで作成、保存し
サーバーに直入れしたrobots.txtは削除するように」という警告が出ました。
ので言われるがままにRobots.txtエディターを使い変更を保存した後、
再度WinSCPでサーバーに直入れしたrobots.txtは削除しておくという工程を追加で行いました。

過去の経験、記憶から考えると、
いたちごっこで対策していくうちに
robots.txtが長~くなっていくんじゃないかな~……と
暗澹たる気持ちになりますが、
油断せずぼちぼちやっていこうと思っております。