xác thực google maps

Vì sao chặn những url lỗi bằng robots.txt không có hiệu quả

Thảo luận trong 'Thảo luận SEO' bắt đầu bởi intelprotin4, 19 Tháng mười một 2012.

Lượt xem: 4,703

  1. intelprotin4

    intelprotin4 Thành viên tích cực

    Bài viết:
    374
    Đã được thích:
    415
    Mình đang gặp rất nhiều lỗi 404,code web bằng joomla. Đã thực hiện việc chặn những link lỗi từ google master tool báo về nhưng hiệu quả thì không như mong muốn. Google tiếp tục gửi lỗi về trong đó có những link đã được fixed.

    Anh em nào có kinh nghiệm vụ này tư vấn để tìm phương pháp giải quyết.

    Thank cả nhà
     
    nkonline thích bài này.
  2. Asahoo1

    Asahoo1 Dự bị

    Bài viết:
    0
    Đã được thích:
    1
    Anh thử canonical URL chưa ạ, k thì chỉ có xoá link thôi anh ạ :(
     
  3. tuazdm

    tuazdm Dự bị

    Bài viết:
    27
    Đã được thích:
    3
    Bạn dùng plugin rồi để mặc định là được rồi, mình cài xong rồi để tự nhiên là thấy ok rồi
     
  4. bepgarinnai

    bepgarinnai Dự bị

    Bài viết:
    8
    Đã được thích:
    0
    Lỗi 404 sảy ra rất nhiều nhất là trong joomla. Bạn có thể sửa lại .htaccess , nếu không đc thì bắt lỗi 404 băng cách viết 1 bài mặc định thông báo lỗi này. Nếu bạn ko làm đc thì tốt nhất xóa hết các url lỗi.
     
  5. aloso13

    aloso13 Banned

    Bài viết:
    57
    Đã được thích:
    16
    Robots.txt có liên quan đến 404 ah chưa nghe bao h
     
  6. saosang

    saosang Thành viên tích cực

    Bài viết:
    457
    Đã được thích:
    81
    b này nói có lý.m có 2 site
    1 site bot vào 1 ngày khoảng 1k thì ok k lỗi gì hết,
    còn 1 site 1 ngày gần 500k bot ngầy nào cũng dính lỗi vs k thể kết nối máy chủ
     
  7. thanhluantmm

    thanhluantmm Thành viên

    Bài viết:
    59
    Đã được thích:
    6
    cái lỗi 404 mình cũng gặp rất nhiều mà xóa url không được là sao?
    có pro nào cho mình hỏi, robots.txt khi mình check seoquake nó báo là not found thì có ảnh hưởng gì không?
     

Chia sẻ trang này