xác thực google maps

5 Sai Lầm Ngớ Ngẩn Ảnh Hưởng Tiêu Cực Tới SEO Cần Tránh

Thảo luận trong 'Thảo luận SEO' bắt đầu bởi htruh, 4 Tháng một 2017.

Lượt xem: 6,331

  1. htruh

    htruh Thành viên

    Bài viết:
    274
    Đã được thích:
    109
    Cùng với sự phát triển mạnh mẽ của Marketing online, SEO dường như đang trở thành 1 thứ gì đó được đặt trên “băng ghế dự bị”. Tại sao chúng ta tốn thời gian vào từ khóa, tags, links (tất cả các yếu tố về kỹ thuật SEO) khi mà bạn đã có quảng cáo trả phí, các mạng xã hội và nội dung??? Mặc dù bị bỏ lơ một chút, tuy nhiên SEO vẫn đang lớn mạnh vững chắc và đóng một vai trò vô cùng quan trọng trong hiệu suất tổng thể của trang web.

    seo-mistakes.jpg
    Thực tế thì, nó khá khó để đứng top và tối ưu hóa website của bạn cho những bộ máy tìm kiếm hiện nay. Mặc dù các SEOer vẫn luôn lướt trên các trang web để tìm kiếm những “mẩu thông tin” quan trọng về những lần cập nhật và thay đổi của những thuật toán. Nhưng vấn đề là, đôi khi vì quá chú trọng vào những cập nhật và thay đổi mới, mà chúng ta thường mắc phải những sai lầm cơ bản mà lẽ ra không đáng có.

    Trong bài viết này, tôi sẽ liệt kê ra 5 sai lầm “ngớ ngẩn” mà thậm chí đôi khi những chuyên gia SEO đôi khi cũng mắc phải. Tránh những lỗi cơ bản này bằng mọi giá bởi vì những lỗi này có thể phá hủy toàn bộ chiến dịch truyền thông của bạn.


    5 Sai Lầm Trong SEO Cần Phải Tránh


    1/ Không cho website được index trong file .htaccess

    Nếu bạn đã làm SEO, chắc hẳn bạn đã nghe tới file .htaccess. Cơ bản thì đây chính là file dùng để lưu trữ những chỉ thị cụ thể chặn hoặc cung cấp quyền để truy cập vào các tài liệu, thông tin trong website.

    image001.png

    Tôi không thể nhấn mạnh hết được tầm quan trọng của file .htaccess, nhưng file này có thể giúp bạn

    - Tạo ra 1 file sitemap chi tiết hơn

    - Tạo ra đường dẫn sạch đẹp hơn

    - Thay đổi cache để cải thiện tốc độ tải trang web

    Tóm lại thì, file .htaccess là một dụng cụ quan trọng để tăng tốc độ index và thậm chí là nhận được một vị trí cao hơn trong trang kết quả tìm kiếm.

    Tuy nhiên, bạn cần thực sự “Pro” để dựng một file .htaccess chính xác. Một sai lầm nhỏ có thể dẫn đến những hậu quả nghiêm trọng, ví dụ với câu lệnh dưới đây, bạn sẽ chính thức khóa toàn bộ website không được index:

    Mã:
    
    RewriteCond %{HTTP_USER_AGENT} ^Google.* [OR]
    RewriteCond %{HTTP_USER_AGENT} ^.*Bing.*
    RewriteRule ^/dir/.*$ – [F]
    
    
    Nếu như bạn nhìn thấy dòng code này trong file .htaccess của bạn thì những con bọ tìm kiếm sẽ không thể thu thập dữ liệu từ web của bạn, hãy yêu cầu lập trình viên xóa bỏ đoạn code này đi hoặc tự bạn có thể làm điều đó.

    Hãy chắc chắn rằng, bạn kiểm tra file .htaccess trước khi bắt tay vào làm bất cứ một dự án nào. Một vài SEOer đã tối ưu và quảng cáo web hàng tháng trời mà không nhận ra rằng, tất cả nỗ lực của họ đều bỏ đi. Và tôi tin chắc, bạn không muốn điều đó xảy ra với mình.


    2/ Ngăn cản công cụ tìm kiếm lập chỉ mục (index) trong CMS

    SEO plugins của CMS platforms giống như Wordpress, joomla và Drupal có thể gây nguy hiểm cho nỗ lực tối ưu hóa website của bạn. Họ đã xây dựng một tính năng cho phép người dùng chỉ dẫn công cụ tìm kiếm ngừng thu thập dữ liệu từ website. Tất cả những gì bạn cần làm đó là vào

    Mã:
    Setting -> Reading -> Discourage
    để ngừng việc lập chỉ mục website. Tích vào ô vuông và bạn có thể cấm search bot index website của bạn.

    image002.png

    Hãy chắc chắn rằng, bạn sẽ kiểm tra ô vuông trên ít nhất 1 lần 1 tuần, nếu ai đó đã truy cập vào CMS có lẽ sẽ ngẫu nhiên tích vào ô vuông đó, điều này không may mắn sẽ làm ảnh hưởng tiêu cực tới chiến dịch truyền thông của bạn.

    Lưu ý: Công cụ tìm kiếm có lẽ sẽ vẫn tiếp tục index website của bạn thậm chí khi mà bạn đã tích vào ô “discourage”. Chính vì thế, nếu bạn chủ động muốn ngăn cản công cụ tìm kiếm lập chỉ mục website của bạn, hãy làm điều đó trong file .htaccess hoặc robots.txt

    3/ Để file robots.txt hoàn toàn mở cửa cho search bot vào thu thập dữ liệu

    Đây là một điều tồi tệ nhất. Hãy nhớ rằng, đừng bao giờ để file robots.txt của bạn mở cửa hoàn toàn cho search bot bởi vì nó có thể dẫn tới những vấn đề về quyền riêng tư. Bạn có thể mất hoàn toàn website thông qua các lỗ hổng về dữ liệu.

    Nếu bạn là một người mới, hãy chắc chắn rằng giành càng nhiều thời gian càng tốt để học về cách xây dựng và quản lý file robots.txt. Hãy hành động ngay lập tức nếu như bạn nhìn thấy file robots.txt của bạn giống như thế này

    Mã:
    
    User-Agent: *
    Allow: /
    
    
    Điều này có nghĩa là search bot có thể tiếp cận và thu thập tất cả các webpage trong website của bạn, bao gồm cả admin, login, giỏ hàng thậm chí cả các trang search và filter (dynamic page)… giữ các trang thông tin khách hàng “Close and Protected” (Được bảo vệ và không cho search bot truy cập). Bạn không muốn bị phạt vì có tới hàng ngàn dynamic page. Hãy đảm bảo bạn không cho phép truy cập vào các trang cần phải khóa nhưng đồng thời cũng phải cho phép truy cập vào các trang cần phải được index. Nghe thì có vẻ đơn giản, tuy nhiên nó cần thời gian để được nghiên cứu và học.


    4/ Quên thêm thẻ “Nofollow” vào các link ra bên ngoài



    SEOer biết rõ rằng links vẫn còn là một yếu tố quan trọng trong bảng xếp hạng. Tuy nhiên, có những người chỉ tập chung vào backlinks và hoàn toàn quên mất rằng chính website của họ cũng đang truyền một “link juice” đến website khác. Bạn nên điều hướng những đường link chất lượng về website của bạn, tuy nhiên hãy giữ tất cả sức mạnh của đường link đó cho web bạn.

    Chính vì vậy, chiến thuật là:

    - Quét lại toàn bộ website của bạn bằng các tool giúp bạn scan (tôi dùng Website auditor)

    - Tìm kiếm những đường link trỏ ra ngoài

    - Thêm thẻ “nofollow” cho những link trỏ ra ngoài.

    Tuy nhiên, đừng quá bị ám ảnh bởi thuộc tính “nofollow”, nếu bạn giữ tất cả link juice ở website của bạn, thì những SEOer khác chắc chắn cũng sẽ làm vậy với bạn. Tóm lại thì, đừng quá lạm dụng nó.


    5/ Không kiểm tra Code trong Validator



    Website của bạn cũng bao gồm cả code. Và Code càng tốt thì khả năng cao bạn sẽ nhận được kết quả càng cao trên bản hiển thị kết quả tìm kiếm. Điều này là đúng vì code cho phép bọ tìm kiếm quét và thu thập dữ liệu hiệu quả hơn.

    Chính vì thế, bất cứ khi nào nhận một dự án mới, hãy kiểm tra code và tối ưu. Bạn không cần thiết phải là một coder. Tất cả bạn cần làm là copy URL và dán vào The W3C Markup Validation Service

    Mã:
     https://validator.w3.org/ 
    Sau đó hãy yêu cầu lập trình viên sửa tất cả các lỗi mà xuất hiện. Ảnh dưới đây miêu tả cụ thể báo cáo của Validator.

    image004.jpg

    Mặc dù Google sẽ không phạt website của bạn vì có những lỗi ở trong code, tuy nhiên tốt hơn hết là hãy cứ chạy code validator tool, vì nó không tốn quá nhiều thời gian của bạn và hơn hết nó giúp website bạn cải thiện hiệu xuất cho cả người dùng và bọ tìm kiếm.


    Kết Luận.

    Các thuật toán của những công cụ tìm kiếm vẫn đang tiếp tục cập nhật và thay đổi, bạn nên làm việc chăm chỉ để theo kịp tất cả những thay đổi và cập nhật nhỏ nhất của các công cụ tìm kiếm. Phát triển và cập nhật SEO theo các thuật toán là rất tốt (thực tế thì PHẢI LÀM) tuy nhiên đừng bao giờ quên những thứ cơ bản. Sau cùng thì những sai lầm ngớ ngẩn có thể dẫn tới những tai hại lớn nhất.


    Nguồn: Searchenginejournal – Biên dịch và chỉnh sửa: Trung Hiếu



    Bạn nghĩ sao? Các lỗi SEO trên đây có thường gặp không? Hãy chia sẻ quan điểm của bạn với tôi nhé. Nhớ Like và Share để động viên mình có những bài chia sẻ tiếp theo nhé.


    Thông Tin Liên Hệ:

    Họ Tên: Hoàng Trung Hiếu

    Facebook: fb.com/sneaker.294

    Skype: live:hieuht.hanu

    Email: hieuht.hanu@gmail.com
     
    Last edited: 4 Tháng một 2017
    HuyetMa, CuTay, kokoat and 12 others like this.
  2. phutungxaydung

    phutungxaydung Thành viên

    Bài viết:
    216
    Đã được thích:
    52
    những sai lầm trên nhiều người biết nhưng cũng nhiều người bị mắc phải, trong đó có mình nhưng mình không biết sửa làm sao.
     
  3. htruh

    htruh Thành viên

    Bài viết:
    274
    Đã được thích:
    109
    Bạn mắc phải lỗi nào trong 5 lỗi trên nhỉ? đây đều là những lỗi cơ bản, nếu bạn làm SEO thì nên khắc phục trước tiên, chưa hiểu, chưa biết thì nên tìm và học, những kiến thức này trên mạng chia sẻ rất nhiều bạn ạ.
     
  4. Đoàn Nguyễn

    Đoàn Nguyễn Thiết kế web Staff Member

    Bài viết:
    932
    Đã được thích:
    1,614
    Chào bạn.
    Bạn share lên MXH 02 topic: tpoic này và topic thông báo kia mình sẽ thêm bạn vào danh sách dự event chính thức bạn nhé.
     
  5. htruh

    htruh Thành viên

    Bài viết:
    274
    Đã được thích:
    109
    Share đầy đủ rồi mà bác ơi!
    Mã:
    https://www.facebook.com/sneaker.294/posts/1067883870023579?pnref=story
    https://www.facebook.com/sneaker.294/posts/1060231077455525?pnref=story
    https://plus.google.com/u/0/112562616261857595361/posts/YaHsKHg2ft9
    https://plus.google.com/u/0/112562616261857595361/posts/gb55NwLih1F?sfc=true
    
     
    Đoàn Nguyễn thích bài này.
  6. thuonganvien

    thuonganvien Thành viên tích cực

    Bài viết:
    396
    Đã được thích:
    75
    Phần robots chủ thớt nói em thấy đúng mà chưa sâu :D
    Không nên để public hoàn toàn như chủ thớt nói thì nên để như nào cho chuẩn ạ
    Vd cho 1 web dùng mã nguồn wp đi ạ :3
     
  7. htruh

    htruh Thành viên

    Bài viết:
    274
    Đã được thích:
    109
    Cái này nói sâu thì cũng k biết nói như nào thím ạ, vì mỗi website mỗi khác. Một vài trang bác có thể không cho bot truy cập như admin, search, filter, print ... Nói chung nó dựa vào ý định và kế hoạch SEO của thím nữa, em biết bác định như nào mà nói thêm, ahihi. Sau khi xác định được trang nào không cần index, không cho search bot vào thu thập thông tin thì thím disallow nó thôi, giống kiểu thế này này
    Mã:
    
    User-agent: *
    Disallow: /cgi-bin/
    Disallow: /tmp/
    Disallow: /~joe/
    
    Like bài động viên phát đê thím ơi :))
     
    thuctapvutdb thích bài này.
  8. phutungxaydung

    phutungxaydung Thành viên

    Bài viết:
    216
    Đã được thích:
    52
    mình mắc phải lỗi thứ 3 và lỗi thứ 5, nhưng mình thấy từ khóa vẫn lên top là sao nhỉ :D
     
  9. htruh

    htruh Thành viên

    Bài viết:
    274
    Đã được thích:
    109
    uh bạn, lỗi 3 thì bạn sẽ đối mặt với nguy cơ mất website vì những lỗ hổng về dữ liệu thôi,
    Còn lỗi 5 thì cơ bản Google k phạt bạn, nhưng nó làm tốc độ index của web và tải web giảm đi.
    có nghĩa là, bạn vẫn lên top nhưng lẽ ra bạn sẽ lên top dễ hơn thế và bền vững hơn thế nếu như bạn làm đúng những thứ này. ANW, chúc mừng bác lên top trong đợt bão bùng như thế này nhé, cố gắng giữ top nha bác.
     
    phutungxaydung thích bài này.
  10. AChauTelecom

    AChauTelecom Thành viên tích cực

    Bài viết:
    362
    Đã được thích:
    73
    Lỗi thứ 5 thì tùy từng trường hợp, tốc độ index thì dùng speed insigh, còn tốc độ tải trang thì có thể tối ưu bằng gtmetrix
     

Chia sẻ trang này