07 พ.ย. 2567
69
Google อัปเดตสำคัญล่าสุด เกี่ยวกับ Robots.txt
วันที่ 7 ตุลาคม 2567 ที่ผ่านมา Google ชี้แจงว่าระบบไม่รองรับช่องที่ไม่ได้ระบุไว้ใน เอกสารประกอบเกี่ยวกับ robots.txt เหตุผลเพราะบางครั้ง Google ได้รับคำถามเกี่ยวกับช่องที่ไม่ได้ระบุไว้อย่างชัดเจน
robots.txt คือไฟล์ข้อความที่ใช้บอกเครื่องมือค้นหา เช่น Googlebot ว่าส่วนใดของเว็บไซต์ที่สามารถเข้าถึงได้และส่วนใดที่ควรหลีกเลี่ยง การตั้งค่าไฟล์นี้ให้ถูกต้องเป็นสิ่งสำคัญสำหรับการจัดการการ Crawl เว็บไซต์ และปรับปรุงประสบการณ์การค้นหาของผู้ใช้และยังช่วยส่งเสริมคะแนน SEO อีกด้วย
Google ตีความไฟล์ robots.txt อย่างไร
-การจับคู่ URL โดย Google จะเปรียบเทียบ URL ของแต่ละหน้ากับกฎที่ระบุไว้ในไฟล์ robots.txt เพื่อตัดสินใจว่าจะอนุญาตให้ Crawl หน้าเพจนั้นหรือไม่
-ลำดับความสำคัญของกฎที่ระบุไว้หลังสุดจะมีผลบังคับใช้มากกว่ากฎที่ระบุไว้ก่อนหน้า
-User-agent สามารถกำหนดกฎที่แตกต่างกัน สำหรับเครื่องมือค้นหาแต่ละตัว เช่น Googlebot, Bingbot ฯลฯ
เหตุผลที่ควรใช้ไฟล์ robots.txt
-ป้องกันการเข้าถึงเนื้อหาที่ไม่ต้องการ เช่น หน้าที่ยังไม่เสร็จสมบูรณ์ หน้าที่ซ้ำซ้อน หรือไฟล์ที่ไม่สำคัญ
-ลดภาระของเซิร์ฟเวอร์โดยการจำกัดจำนวนหน้าที่เครื่องมือค้นหาต้อง Crawl
-ปรับปรุงประสิทธิภาพการ Crawl โดยการบอกเครื่องมือค้นหาว่าควรเริ่ม Crawl จากหน้าใดก่อน
วิธีใช้ไฟล์ robots.txt
ตำแหน่ง
-ไฟล์ robots.txt ต้องอยู่ที่ root directory ของเว็บไซต์ เช่น [URL ที่ไม่ถูกต้องถูกนำออกแล้ว]
ไวยากรณ์
-ไฟล์ robots.txt ใช้ไวยากรณ์ที่ค่อนข้างง่าย มีคำสั่งหลักสองคำสั่งคือ
User-agent ระบุเครื่องมือค้นหาที่กฎนี้ใช้
Disallow ระบุ URL ที่ไม่ต้องการให้เครื่องมือค้นหาเข้าถึง
Allow ระบุ URL ที่อนุญาตให้เครื่องมือค้นหาเข้าถึง
ข้อควรระวัง
-ไฟล์ robots.txt ไม่ได้เป็นการบล็อกเนื้อหา หากมีเว็บไซต์อื่นลิงก์ไปยังหน้าที่บล็อกไว้ในไฟล์ robots.txt Google อาจยังคงจัดทำดัชนีหน้าเพจนั้นได้เหมือนเดิม
-Google อาจไม่ปฏิบัติตามไฟล์ robots.txt อย่างเคร่งครัด อาจยังคง Crawl บางหน้าที่บล็อกไว้ โดยเฉพาะอย่างยิ่งหาก Google คิดว่าหน้าเพจนั้นมีความสำคัญ
-การเปลี่ยนแปลงไฟล์ robots.txt อาจใช้เวลาสักครู่ในการดึงข้อมูลไฟล์ robots.txt ใหม่และปรับเปลี่ยนการ Crawl
สิ่งที่ควรรู้เพิ่มเติม
-Google Search Central เป็นแหล่งข้อมูลที่ครอบคลุมเกี่ยวกับ การทำ SEO และการจัดการเว็บไซต์บน Google
-รายงาน robots.txt ใน Google Search Console สามารถตรวจสอบว่า Google สามารถเข้าถึงไฟล์ robots.txt ได้หรือไม่ และมีข้อผิดพลาดใดๆ เกิดขึ้นหรือไม่
หากต้องการข้อมูลเพิ่มเติม สามารถดูได้จาก วิธีที่ Google ตีความข้อกำหนดของ robots.txt
สรุป
ไฟล์ robots.txt เป็นเครื่องมือที่มีประโยชน์สำหรับการควบคุมการ Crawl เว็บไซต์ อย่างไรก็ตาม ควรใช้ไฟล์นี้ร่วมกับเทคนิคอื่นๆ เช่น การใช้ meta tag noindex และการป้องกันด้วยรหัสผ่าน เพื่อให้ได้ผลลัพธ์ที่ดีที่สุด
--Wynnsoft Solution รับทำเว็บไซต์ รับทำ SEO รับทำการตลาดออนไลน์ รับทำโฆษณา Facebook รับทำเว็บไซต์ ขอนแก่น และรับทำเว็บไซต์ทั่วประเทศ—
ข้อมูลจาก: นักเขียนนิรนาม