xác thực google maps

Hỗ trợ robot txt và loại bỏ bởi thẻ noinđex

Thảo luận trong 'Thảo luận SEO' bắt đầu bởi thatph@fptbentre, 23 Tháng mười 2019.

Lượt xem: 2,512

  1. thatph@fptbentre

    thatph@fptbentre Dự bị

    Bài viết:
    9
    Đã được thích:
    1
    Chào Mọi Ngời
    Nhờ anh xem qua và hỗ trợ giúp mình xem web fpt-bentre com dạo này bị gì mà bị lỗi độ bao phủ nhiều quá ạ và bi dính lỗi Bị loại trừ bởi thẻ 'noindex'
    và trong đó bị dính lỗi xóa cả bài viết rất nhiều,


    Nhờ mọi người xem qua và hỗ trợ giúp em làm thế nào cho code chuẩn và google index lại bài viết ạ , nhờ mọi người xem qua và hỗ trợ giúp ạ . Em cám ơn a
    + Do Không được đưa link nên e add file code robot txt đính kèm ạ
    EM CÓ ĐÍNH KÈM FILE Ạ
     

    Các file đính kèm:

  2. happynguyen

    happynguyen Thành viên

    Bài viết:
    135
    Đã được thích:
    20
    Mình dùng Yoast Seo nó tự động tạo chẳng thấy lỗi ji, bác xài thử xem
     
  3. thatph@fptbentre

    thatph@fptbentre Dự bị

    Bài viết:
    9
    Đã được thích:
    1
    Do hiện tại mình sử dụng blogger nên không rành nữa nè, các bài top bị xóa nhiều quá, nhờ có cao nhân nào giúp với
     
  4. hitlehung

    hitlehung Thành viên nhiệt tình

    Bài viết:
    976
    Đã được thích:
    171
    Lỗi noindex thì bạn check lại link đấy trong gmt có bị chặn không nhé, nếu không thì tạo lại sitemap full và cập nhật lại nhé.
     
  5. thangnangnguoi

    thangnangnguoi Thành viên

    Bài viết:
    87
    Đã được thích:
    5
    nhờ bên quản trị họ hỗ trợ cho bạn ạ, mấy cái này phức tạp lắm họ xử lý một lúc là xong thôi
     
  6. VietSeoSol

    VietSeoSol Thành viên thân thiết

    Bài viết:
    1,791
    Đã được thích:
    532
    @thatph@fptbentre: Bác lập lại trật tự Allow và Disallow nhé ! Nếu tự code thì nên sitemap cho danh mục ! Còn chịu khó hơn nữa thì tim trong IDVS có bài về cấu hình robots.txt khá tốt nha!
     
  7. vubahai

    vubahai Thành viên tích cực

    Bài viết:
    441
    Đã được thích:
    97
    Nếu đã không biết thì tốt nhất để trống robot hoặc chỉ để
    User-agent: *
    Allow: /

    Tôi mới check qua bài viết trên web không hề có thẻ chặn noindex gì cả nhé. Lỗi file robot mới. Thánh bỏ 2 dòng đầu tiên này hộ tôi cái là xong.
    User-agent: Mediapartners-Google
    Disallow:
     
  8. maimaihoang

    maimaihoang Thành viên thân thiết

    Bài viết:
    1,299
    Đã được thích:
    351
    Chỉ nên lấy duy nhất 1 sitemaps thôi
    Sitemap: https://www.fpt-bentre.com/sitemap.xml
    file robots.txt của mã nguồn mở rất đơn giản bạn lên mạng tìm là có nhiều. bạn đừng nhét quá nhiều thứ ko cần thiết vào đó.
    Bỏ ngày 2 dòng sau:
    User-agent: Mediapartners-Google
    Disallow
    Không hiểu bạn cho vào làm gì, nên xem các chức năng cần thiết.
    Khi muốn thêm cái gì vào thì phải tìm hiểu chức năng của nó thế nào, có thiết thực cho web mình ko
     
  9. hoatuoidalat

    hoatuoidalat Dự bị

    Bài viết:
    1
    Đã được thích:
    0
    các bạn xem giúp website mình cái site map đúng chưa? mà nó không hiện lên google được
    hoatuoidalat. vn. Web minh chạy cũng hơn 1 năm mà tìm trên google không thấy
     
  10. mr.tmax

    mr.tmax Thành viên thân thiết

    Bài viết:
    1,062
    Đã được thích:
    240
    Tốt nhất Robots.txt bạn để về thể phổ biến nhất cho an toàn như sau:

     

Chia sẻ trang này