Chắc khi tìm hiểu về seo thì mọi người cũng đã hiểu về con spider của google và file robots.txt đề điều hướng của google.Hiểu là một chuyện nhưng triển khai nó như thế nào lại là một chuyện hoàn toàn khác. Hiện tại là mình khá đau đầu về lượng index của google dành cho website.Viết được có tầm 30 bài mà lượng index nó nhảy vọt lên tới tận hơn 1k.Mình hiện đang tùy chỉnh file robots nhưng hiện tại gặp rắc rối.Mình xin trình bày cụ thể để mọi người cao thủ đọc qua cho mình xin ý kiến. Website mình đang dùng là sinhnhatchobe.vn I.Nguyện vọng Trang index chỉ cần 3 mục chính là trang chủ + trang chi tiết sản phẩm + trang bài viết kinh nghiêm. II.Hiện tại Nó index tùm lum hết lên cả,ví dụ một số link cho mọi người thấy:sinhnhathobe.vn/index.php?route=d_blog_module/search&date_published=10-2017sinhnhatchobe.vn/hinh-chibi/hinh-chibi-sinh-nhat.html?sort=p.model&order=DESCNó index không đúng các trang bài mình cần nó index mà toàn những trang bên lề. III.Hướng giải quyết của mình Bước 1:Tìm những trang index với siteinhnhatchobe.vn Bước 2:Lọc những trang không cần thiết để bỏ nó vào file disallow của file robots.txt Ví dụ :các link bài có đuôi là DESC như file inhnhatchobe.vn/hinh-chibi/hinh-chibi-sinh-nhat.html?sort=p.model&order=DESC Mình thêm dòng này vào file robots.txtisallow: /*DESC$ Những link như inhnhatchobe.vn/index.php?route=d_blog_module/search&date_published=10-2017 Mình thêm câu lệnh Disallow: /index.php* IV.Câu hỏi mình thắc mắc Ở đây sẽ có 2 loại file mà mình đang thắc mắcNhững file trong thư mục public.html bị disallowí dụ như js,img...Những link trong website mà google index:Ví dụ như hai link trênCâu hỏi:Khi mình disallow nó nó chặn file hay chặn link.Và hướng giải quyết của mình đúng chưa.Mong mọi người chỉ bảo hộ mình mọi người mon cho mình ý kiến
Như mình thấy website của do code thôi. Nếu như bạn tối ưu code thì sẽ không xuất hiện những yếu tố như bạn nói