2008年12月20日

Blogのフォントなどを変更。

20081220_6.jpg
 前から、このBlogの「フォント」が見づらいなあと思っていたので、先日、CSSの設定を変更してみました。

 さくらのブログの場合、
 「デザイン」→「デザイン一覧」→表示されるCSSを編集
 で、Blogのフォントを変更する事が出来ます。

 私はCSSには疎いので、

■ブログ別!作成・カスタマイズ講座■
 http://blog.info-rich.jp/
 
 を、参考にさせて頂きました。

 画面上で一番読みやすいフォントは、「Verdana」フォントだと言う事で、今回は当ブログでも、「Verdana」フォントを設定しております。

 フォントの変更方法は、さくらのブログのCSS(デザイン)編集で、

 「font-family」

 と、言う部分を探します。

 font-family: ○○○, ○○○, ○○○;

 と、言った感じで記述されているので、これを、

 font-family: Verdana, Arial, sans-serif;

 に変更して保存し、CSSを反映(再構築)して、フォントの変更は完了です。
 ついでに、行間の高さも変更してみました。
 
 これで、以前より見易くなったんじゃないかと思います。


■ブログ別!作成・カスタマイズ講座■
 http://blog.info-rich.jp/

 こちらのサイトには、他にもBlogのデザインで役立つ情報が沢山ありますので、カスタマイズしたい方にはオススメです♪
posted by 糸宇 at 19:06 | Comment(0) | タグ/ソース関連メモ

2008年12月18日

robot.txtについてのメモ

20081218.jpg
 昨日、久しぶりにGoogle検索で自分のホームページを見てみたら、検索ロボット対策済みのはずのページまでインデックスされていて、あれ?と思い、設定していたrobot.txtを確認したところ…見事に設定を間違えていました。(涙)
 と、言うわけで修正のついでに覚え書きとして、今日はrobot.txtについてのメモをしておこうと思います。

■Robot.txtについて

 robot.txtとは、巡回型の検索ロボットが、ホームページを自動的に巡回して、インデックス(ホームページを検索エンジンに登録)してしまうのを防ぐものです。
 すべての検索ロボットを防げるわけではありませんが、ある程度の効果が期待出来ます。

■robot.txtの書き方

 テキストエディタを開き、下記のように記載した場合、全ての検索ロボットに対して、全てのコンテンツのインデックスを許可しない設定になります。

 User-agent: *
 Disallow: /

 「User-agent: * 」
 この部分には、ロボットの名前を書いて、ロボットの名前を指定する事も出来ます。

 「Disallow: 」
 この部分には、インデックスされたくないページやフォルダを指定します。

 「*」とは、「すべて」、「User-agent」とは、「検索エンジン」、「Disallow」とは「禁止する」と言う意味だそうです。

 例えば、グーグルにだけインデックスされたくない場合は、

 User-agent: Googlebot

 と、記述します。

 グーグルに、特定のフォルダだけ(今回は「sample」と言うフォルダの場合で説明しています)、インデックスされたくない場合は、

 User-agent: Googlebot
 Disallow: /sample/

 と、記述します。

 複数の検索ロボットで、複数のページやフォルダを指定する場合は、

 User-agent: Googlebot
 Disallow: /sample/
 Disallow: /sample2/

 User-agent: Slurp
 Disallow: /sample/
 Disallow: /sample2/

 と、言うように記述します。

 設定出来たら、ファイルの名前を「robot.txt」として、保存します。

■robot.txtの設置の仕方

 「robots.txt」は、そのサイト(ホームページ)のトップディレクトリ(一番上の階層)に置く必要があります。

 例えば、『http://www.○○○.com/』の場合、
 http://www.○○○.com/の階層に、
 robot.txtを設置する必要があります。

 それを、アドレスで説明すると、
 http://www.○○○.com/robot.txt
 と、なります。

 http://www.○○○.com/sample/
 と、言うアドレスを検索ロボットにインデックスされたくない、と言う場合に、
 http://www.○○○.com/sample/に、robots.txtを置いても、検索ロボットは指示に従ってくれません。つまりrobots.txtを置いた場所が、
 http://www.○○○.com/sample/robots.txt
 言うアドレスではダメなのです。

 この場合は、robots.txtに、

 User-agent: Googlebot
 Disallow: /sample/

 と、記述して、

 http://www.○○○.com/

 の、アドレスに、robots.txtを置く必要があります。
 (ホームページのindex.htmlや、top.htmlを置く階層です)

■robot.txtが設置出来ないサイト/ホームページについて

 サイトアドレスが、

 http://www.geocities.jp/○○○/であったり、
 http://www.ocn.ne.jp/~○○○/であったりする場合、

 robots.txtを使う事が出来ません。
 (必ず、トップディレクトリ=一番上の階層に設置しなければならないためです)
 この場合はrobots.txtを設置出来ないので、METAタグなどで、検索ロボットに指示をする事になります。

 詳しくは、METAタグの解説ページをご覧下さいませ。
 ■METAタグメモ■
 http://first-moon.sblo.jp/article/23821725.html

※「robot.txtについて」の記事は自分用メモで、私自身はrobot.txtについて疎いため、設定についての質問などにはお答え出来ません。ご了承下さいませ。
また、記述などに間違いがありましたら、教えて頂けると幸いです。随時修正させて頂きます。
posted by 糸宇 at 21:58 | Comment(0) | タグ/ソース関連メモ

2008年12月04日

METAタグメモ

20081204_meta.jpg
 自分用METAタグメモです。
 ※イラストはMETAタグとは何の関係もありません。
  何も画像がないと寂しいので、「トマトの菌」をイメージしたもやしもんチックな落描きをしてみました。

 METAタグはHTML文の<head>〜</head>の間に入れます。
 全てのMETAタグが全てのブラウザ環境で動作するわけではありませんので注意が必要です。
 
 ■キャッシュを残さない/キャッシュ制御
    <meta http-equiv="pragma" content="no-cache">
    <meta http-equiv="cache-control" content="no-cache">
    <meta http-equiv="expires" content="0">

※3行目はあるいは過去の日付に。
 例:<meta http-equiv="expires" content="Sun, 10 Jan 1990 01:01:01 GMT" />

■別ページへの自動ジャンプと再読み込み
    <meta http-equiv="refresh" content="5; url=○○.html">
 この記述で、5秒後に自動的に「○○.html」にジャンプします。
    <meta http-equiv="refresh" content="5">
 ジャンプ先のアドレスを指定しない場合は、そのページを再度読み込みします。
※対応していないブラウザもあります。

■検索結果にサイトの内容を表示
    <meta name="description" content="ここに表示させたい簡単なサイトの説明などを入れます">
 サイトの内容の説明は50文字位までを目安に。長すぎると良くないようです。
 検索ロボットの多くは、このサイト内容を拾って検索結果に反映してくれます。

■検索ロボット用のキーワード記述
    <meta name="keywords" content="キーワード1,キーワード2,キーワード3">
 キーワードは 「,(コンマ)」で区切って設定します。余り多いと良くないようなので5〜10個位までが良いかも。
 重要なキーワードを手前に持ってきた方が良いそうです。

■検索ロボットの情報自動収集への制御
 ※必ず制御できるわけではない事に注意して下さい。

 このページの登録を許可します
    <meta name="robots" content="index">
 ※indexがページの登録許可、にnoindexが登録拒否の意味を持ちます。
 followはページ内のリンクの巡回を許可、nofollowが拒否の意味を持ちます。
 このページのみ登録(巡回)を禁止します。
    <meta name="robots" content="noindex">
 このページがキャッシュされるのを拒否します。
    <meta name="robots" content="noarchiv">
 このページをすべて検索対象からはずしキャッシュも拒否します。
    <meta name="robots" content="noindex,nofollow,noarchive">
 このぺージのみ登録(巡回)を許可しますが、リンクを辿るのは拒否します。
    <meta name="robots" content="index,nofollow">
 このページもそこにあるリンク先も全て、巡回を拒否します。
    <meta name="robots" content="none">
 このページの下の階層にあるページの巡回を許可します。
    <meta name="robots" content="all">
 このページとリンクされている全てのページの登録(巡回)を許可します。
    <meta name="robots" content="index,follow">
 このページの登録は拒否しますが、ページ内のリンク先の巡回を許可します。
    <meta name="robots" content="noindex,follow">
 ページ内の画像が検索対象となるのを防ぎます。
    <meta name="robots" content="noimageindex">
 ページ内の画像への直接リンクを防ぎます。
    <meta name="robots" content="noimageclick">
 イメージツールバー(画像にマウスを乗せたときに表示される印刷・保存などのツールバー)を無効化します。
    <meta http-equiv="imagetoolbar" content="no">
 検索ロボットに後日、再巡回させます。
    <meta name="revisit_after" content="10 days">
   検索ロボットが訪れた際に後日、再度訪問させたい場合に記述します。  
例:10日後に、再び巡回して下さい。

■METAタグではないけど、画像を扱うサイトでは便利な記述 

 右クリックを禁止します。
    <body oncontextmenu="return false">
  この記述は<body>のところに入れます。

 ページの余白部分をなくします。
body {
margin: 0px;
padding: 0px;
}

   スタイルシート(css)内に記述します。

※「タグ/ソース関連メモ」の記事は自分用メモで、私自身はMETAタグ疎いため、設定についての質問などにはお答え出来ません。ご了承下さいませ。
また、記述などに間違いがありましたら、教えて頂けると幸いです。随時修正させて頂きます。
posted by 糸宇 at 13:09 | Comment(0) | タグ/ソース関連メモ

Webサイト&携帯サイトのキャッシュ対策(キャッシュを残さない)ためのメモ

20081203_5.jpg
 携帯サイトを作ってからと言うモノ、私はある現象に悩まされていました。
 それは、「キャッシュ」が残る事。
 現在は割と頻繁に更新しているのに、更新したページが表示されないと言うのは非常に困ります。

 私の使っている携帯機種はAUで、携帯サイトはEZWebで動作確認をしているのですが、手動でリロード(更新)しないと、いつまで経っても前のキャッシュが残っているのです。

 通常、キャッシュを残さない設定をソースで書くと、

<head>
<span style="color:#CB0000;"><meta http-equiv="Pragma" content="no-cache">
<meta http-equiv="Cache-Control" content="no-cache">
<meta http-equiv="expires" content="0" /> </span>
<title> タイトル </title>
</head>


と、言う「赤文字部分」の記述になるようなのですが、これをソースに加えても、携帯サイトはAU携帯で見た時にキャッシュが残ってしまうのです。
<meta http-equiv="expires" content="Sun, 10 Jan 1990 01:01:01 GMT" />
 と、言う「過去の時間を指定」した方が良いかも、と言うアドバイスを頂きましたので、そちらの方がいいかも。

 私の携帯サイトはphpで作っているため、
「phpで何とかする方法はないものかー」と悩んでいると、詳しいお友達が、有り難いアドバイスを下さいました。

「下の赤文字部分を、キャッシュさせたくないページに入れます。

<?php
header("Cache-Control: no-cache, must-revalidate"); // HTTP/1.1
header("Expires: Sat, 26 Jul 1997 05:00:00 GMT"); // 過去の日付
?>


3行目は過去の日付を入れます。有効期限の設定なので、過去ならば常に期限切れで再読み込みになるというわけです。
時間はGMT=グリニッジ標準時間での指定なので、日本時間より9時間少ない数字にしましょう。
これを<html>のすぐ下かすぐ上に入れてみて下さい。」

 このソースを携帯サイトのファイルに加えてみた所、無事にキャッシュが残らなくなりました!バンザイ!
 同じような現象で悩んでいる方がいるかもしれないと思いメモ書きしてみました。
 携帯サイトをhtmlファイルなどで作っている場合「php」用のソースは使えませんが、AU以外の携帯サイトでは、ほとんどの場合、「キャッシュを残さない」METAタグだけでも大丈夫なようです。

※「タグ/ソース関連メモ」の記事は自分用メモで、私自身はMETAタグにもphpにも疎いため、設定についての質問などにはお答え出来ません。ご了承下さいませ。
また、記述などに間違いがありましたら、教えて頂けると幸いです。随時修正させて頂きます。
posted by 糸宇 at 10:56 | Comment(2) | タグ/ソース関連メモ
  First MoonFirst Moon Blogへのコメント等についてFirst Moon

  First MoonBlogに遊びに来て下さり、ありがとうございます。
   Blog記事へのコメント、とっても嬉しいです♪

  ※フリー素材について質問、相談等がございましたら、
   【幻想素材サイトFirst Moon】の、【お約束ごと】【FAQ】
   お読みの上、ゲストブック/レスありをご利用下さい。
   素材のリクエストは、リクエスト掲示板にお寄せ下さいませ。

  ※本Blog、Blogの記事と直接関係のない話題はご遠慮下さい。
   マナーに欠けたコメント、問題あると判断した書き込み、
   スパムと思われる物は、予告無く削除する場合があります。

  ※現在、First Moon Blogでは相互リンクはお受けしておりません。

  ※First Moon Blogに掲載している全ての記事、画像の、無断転載、
   再配布を禁止致します。(本Blogの画像は素材ではありません)

   Blog内に使用したい画像、記事がございましたら連絡下さい。
  
・―・―・―・―・―・―・―・―・―・―・―・―・―・―・―・―・―・


【天使&猫のお花畑angelo】…美麗な天使、可愛い猫や妖精グッズなど
【猫雑貨Crush*Berry*】…キュートな猫グッズ、猫雑貨が満載!
【ラッピング倶楽部】…豊富なラッピングアイテム。事務用品やパーティグッズなど
【布ナプキン〜ジュランジェ〜】…無漂白ネルの500円布ナプキン、エコ洗剤など
【ふすまパンのみどり工房】…低糖質低カロリー、食物繊維たっぷりふすまパン
【焼き菓子のがらがらどん】…優しいお味で美味しい!季節の手作りタルト、ケーキのお店
【携帯グッズ専門店ストラップヤ】…iPhone4s、iPhone5の素敵ケースが満載!猫物も
フィギュア格安あみあみ 】…ゲーム、ホビー関連をお買得価格で。商品も充実。




−First Moon Blog−
Copyright (c) Itoh ( First Moon ), All Right Reserved
当Blogのすべての画像・構成・文章の無断引用・転用を禁じます。
Web Master:糸宇 睦月