Type Here to Get Search Results !

10 thủ thuật SEO Webmaster cần tránh


Danh sách và những phân tích 10 thủ thuật mà các Webmaster  hay  những người làm SEO cần tránh sử dụng khi tối ưu hóa Website cho máy   tìm kiếm.


  1. Dựa vào từ khóa trong thẻ MetaTags Keywords
  2. Nhồi nhét từ khóa vào trong phần text ẩn
  3. Mua bán liên kết
  4. Thất thoát thứ hạng PageRank
  5. Tham gia hệ thống trao đổi liên kết
  6. Nội dung trung lặp
  7. Sử dụng các Session IDs trong URLs
  8. Website bằng Flash
  9. Sử dụng quá nhiều JavaScript
  10. Kỹ thuật Cloaking
  11. Kết luận thủ thuật SEO

Công việc quảng bá Web, cụ thể là tối ưu hóa cho công cụ tìm kiếm (Search Engine Optimization) tạm  gọi là nghề SEO khá là toàn diện và phức tạp. Bởi các thuật toán  của  máy tìm kiếm, các thủ thuật SEO rất phức tạp và liên tục thay đổi.  Đơn  cử như Google có đến hàng trăm nhân tố trong thuật toán xếp hạng  trang  Web. Hơn nữa, các máy tìm kiếm coi thuật toán là ưu tiên hàng đầu  bởi  hai lý do chính :

Họ không muốn đối thủ biết họ đang làm gì.
Họ không muốn các webmaster hay các spammers thiết kế Web, áp dụng các thủ thuật SEO một cách lạm dụng để có hạng hạng cao

Còn một lý do khác khiến cho nghề SEO trở nên phức tạp là các lý thuyết   SEO, kinh nghiệm SEO thay đổi chóng mặt trong những năm gần đây. Những   thủ thuật SEO mà Webmaster, các chuyên gia SEO áp dụng trong những năm   trước đây không còn áp dụng được cho thời điểm hiện tại.

Sự  thay đổi diện mạo Web dẫn đến sự thay đổi môi trường và các thuật  toán  của máy tìm kiếm một cách liên tục đã khiến cho nghề SEO trở nên  phức  tạp hơn. Rất nhiều câu hỏi, nhiều vấn đề vẫn còn được coi là bí  hiểm  trong nghề SEO. Bài viết này vietSEO sẽ tổng hợp cho các bạn 10 thủ   thuật SEO đã lỗi thời và cần tránh. vietSEO.net hi vọng đưa ra vài lý   giải ngắn gọn những người làm SEO, các Webmaster.

Dựa vào từ khóa trong thẻ MetaTags Keywords

Đây  là điều cấm kỵ đầu tiên mà lý do đơn giản bởi vì các máy tìm kiếm  đã  không còn dựa vào thẻ MetaTags Keywords để xác định nội dung của  trang  Web từ hơn 3 năm nay.  Thay vào đó, các máy tìm kiếm sẽ phân tích  nội  dung được hiển thị cho người dùng để xác định nội dung và phân loại,   qui định thứ hạng cho trang. Những phần văn bản ẩn đối với người dùng,   như MetaTags Keywords, đã không còn có ý nghĩa từ vài năm trở lại đây   bởi chúng bị các Spammer lạm dụng quá mức. Tuy nhiên một số máy tìm kiếm  vẫn dùng đến thẻ Meta  Tags này với trọng số rất thấp. Vì vậy bạn hãy  đặt vào trong thẻ Meta  Tags này những từ khóa chính (như sau), rồi sau  đó hãy quên chúng đi.

Trong khi đó, thẻ Meta Title  – cung cấp thông tỉn thuật hiện cho người dùng, lại là một trong những   thủ thuật SEO quan trọng nhất của việc làm SEO. Nó giúp bạn cải thiện   đáng kể thứ hạng của trang.
Ngoài ra bạn cũng nên khai đầy đủ và chính xác thẻ Meta Description  so với nội dung của trang. Thẻ Meta Description không giúp bạn cải   thiện trực tiếp thứ hạng trang, nhưng nó giúp Google xây dựng snippets   gắn kết với nội dung trong trang kết quả tìm kiếm. Trong khí đó Yahoo   lại sử dụng thẻ description này trong trang kết quả tìm kiếm trong một   số trường hợp. Việc này làm tăng tỷ lệ nhắp chọn CRT. Và vô hình chung, thẻ Meta Description cũng tham gia gián tiếp vào việc tăng chất lượng và tăng thứ hạng Website của bạn.

Nhồi nhét từ khóa vào trong phần text ẩn

Chiếm vị trí thứ hai bởi nó sẽ khiến cho Website của bạn bị phạt,   cấm hoặc xóa khỏi danh mục chỉ số. Việc chèn các từ khóa với font chữ   cực nhỏ, cùng màu sắc với font chữ nền hay vượt khỏi cửa sổ của trình   duyệt hay thậm chí sử dụng các kỹ xảo SEO CSS HTML cũng là những thủ  thuật SEO cấm kỵ. Các thuật toán của Google đã khá  hoàn thiện trong  việc phát hiện ra các kỹ xảo SEO này. Và việc bị trừng  phạt là khó  tránh khỏi nhất là khi việc chống spam đang trở thành mối  quan tâm hàng  đầu của nhiều máy tìm kiếm (Google, Yahoo).

Mua bán liên kết

Đây  là một trong những cách thức rất phổ biến và được vận dụng rộng  rãi  bởi các Webmaster và những người làm SEO. Đặc biệt ở Việt Nam, khi  mà  chỉ số thông lượng truy cập Alexa được người dùng đánh giá cao và  người  ta nghĩ rằng việc liên kết, mua bán, trao đổi liên kết sẽ mang lại   lượng truy cập cho Website. vietSEO nhận thấy rằng nhiều Webmaster Việt Nam  vẫn coi trọng lượng truy cập trực tiếp mang lại từ việc trao đổi link   hơn là lượng truy cập gián tiếp từ các máy tìm kiếm thông qua thứ hạng   của Website.

Vấn đề là, việc trao đổi liên kết làm sai bản chất đường dẫn URL “tự nhiên” và nó sẽ khiến kết quả tìm kiếm không còn chuẩn xác với truy vấn của người dùng  (Ghi nhớ là thứ hạng trang Web cũng phụ thuộc nhiều vào đường dẫn URL   bên ngoài trỏ đến trang). Và các máy tìm kiếm, đặc biệt là Google, trong   nỗ lực cải thiện kết quả tìm kiếm hữu ích cho người dùng, sẽ tìm cách   chống lại việc mua bán liên kết và họ rất ưu tiên việc này. Matt Cutts,   kỹ sư của Google cũng đã khẳng định rằng các thuật toán của Google đã   rất hoàn thiện trong việc phát hiện các liên kết đựoc mua bán. Thông   thường, Google sử dụng ba phương pháp sau để xác định việc mua bán liên   kết này :


  • Thuật toán sẽ tìm kiếm theo mẫu khả nghi, ví dụ  như các từ dạng  “quảng cáo”, “tài trợ” nằm ngay gần liên kết. Nó cũng  có thể tìm ra một  nhóm các liên kết rời rạc không có liên quan gì tới  chủ đề trang có chứ  liên kết này.
  • Google cũng có hàng nghìn biên tập viên tại Châu Á, những người này quản lý chất lượng tìm kiếm. Và chắc chắn một phần trong số đó sẽ được đào tạo để phát hiện ra và cảnh báo việc mua bán liên kết giữ các Website.
  •   Ngoài ra, Google còn có công cụ cho phép người dùng thông báo và  khiếu  nại việc mua bán liên kết. Và chúng sẽ được gửi đến đội ngũ quản  lý  chất lượng tìm kiếm nằm tại Châu Á.


Vậy thì Google sẽ làm  gì khi phát hiện ra việc mua bán liên kết ? Các  liên kết đó sẽ bị đánh  dấu và không còn có hiệu lực về thứ hạng cho  trang được liên kết đến.  Ngoài ra, nếu việc mua bán được phát hiện trong  mục đích tăng thứ hạng  thì Google sẽ áp dụng các hình thức phạt, như  đánh tụt PageRank và thậm  chí cấm luôn Website.

Vì vậy hãy sử dụng thời gian và tiền bạc  hợp lý hơn. Thay vì bỏ thời  gian tìm mua các liên kết thì bạn hãy tìm  các liên kết đáng giá, có liên  quan tới chủ đề của trang nhằm mang lại  thông tin có ích cho người  dùng. Và xây dựng một trang Web giàu thông  tin hay các công cụ hữu ích,  bạn sẽ có được các liên kết “tự nhiên” của  người dùng. Đó là giữ chân  được người dùng cũ và mang lại lượng truy  cập mới. Đây là cách làm chắc  chắn và lâu dài.

Thất thoát thứ hạng PageRank

Đây  là một trong những lời khuyên mà vietSEO tâm đắc nhất bởi đơn  giản nó  là điều mà rất nhiều các Webmaster không hiểu được. Đặc biệt  trong bối  cảnh của Việt Nam, người quản trị Website, hay quản trị nội  dung thường  vì cái vòng luẩn quẩn của quyền tác giả nhiều hơn là khía  cạnh SEO,  nên rất “hà tiện” trong việc đặt liên kết tới các trang Web  khác.

Cách  hiểu sai lầm của những người làm SEO là khi trang Web liên kết  tới các  trang bên ngoài thì PageRank của trang đó sẽ bị “chia nhỏ” và  “thất  thoát” sang các trang khác. Thế nhưng thế giới đã thay đổi. PageRank chỉ còn là một chỉ số thông thường trong xếp hạng trang Web thôi.

Vì  vậy bạn hãy thiết lập tăng cường liên kết tới các trang tương đồng  nội  dung, việc này tăng cường độ tin cậy thông tin trên trang Web của  bạn.

Tham gia hệ thống trao đổi liên kết

Lại  là một việc làm khá cũ nhưng không còn hiệu lực tí nào. Máy tìm  kiếm  muốn liên kết giữ đựoc bản chất “tự nhiên”, trích dẫn khi cần cung  cấp  thông tin, công cụ. Trong khi đó, việc trao đổi liên kết lại thể  hiện  sự đổi trác và chúng rất dễ dàng bị phát hiện.

Đừng mất thời gian  tham gia trao đổi liên kết để để xây dựng hệ thống  liên kết tiểu xảo  giản đơn này. Tuy nhiên xây dựng liên kết lại là việc  làm rất quan  trọng néu như những trang Web trong sơ đồ liên kết có ích đối vời người  dùng.  Hãy xây dựng liên kết tới những trang có  cùng chủ đề và có ích  cho người dùng. Và tất nhiên sẽ còn tốt hơn nếu  như những trang Web  cùng chủ đề này liên kết tới Website của bạn mà  không nhất thiết liên  kết ngược lại.

Nội dung trung lặp

Như trong một số bài viết về nội dung trung lặp trên vietSEO mà các bạn có thể tham khảo thêm :

  • Nội dung kép và phương pháp phát hiện mới của Google
  • Phỏng vấn Matt Cutts về trùng lặp nội dung
  • Thảo luận Webmaster sau phỏng vấn Matt Cutts về trùng lặp nội dung

Theo quan điểm của vietSEO thì có hai cách tạo ra nội dung kép :

  • Nhiều  Webmaster cố tình tạo ra các trang doorway, trang web với nội  dung  tương tự, thậm chí hoàn toàn giống trang gốc. Các trang này được  trình  bày theo nhiều cách khác nhau nhằm quảng bá sản phẩm hay dịch vụ  của  công ty.
  • Nhiều khi, trong cùng một trang Web, cùng một nội dung sẽ xuất hiện tại nhiều trang khác nhau (đường dẫn URL  khác nhau). Ví dụ, cùng một nội dung của Blog có thể tìm thấy trong   phần liên kêt tới bài viết, thể loại, lưu trữ, RSS và trên trang chủ.


Vấn  đề với nội dung kép là Google luôn muốn mang lại cho người tìm  kiếm  nhiều lựa chọn về nội dung, ví thế Google chỉ chọn ra một trang duy   nhất trong số các nội dung trùng lặp. Bởi thế nội dung trùng lặp làm   lãng phí thời gian của các máy tìm kiếm và làm tốn băng thông máy chủ   Web của bạn. Và đôi khi kết quả hiển thị trên trang tìm kiếm lại không   phải là phiên bản nội dung mà bạn muốn người dùng tiếp cận.

Bạn  phải làm gì để tránh nội dung trung lặp ? Hãy tham khảo các bài  viết về  nội dung trùng lặp ở trên và tìm cách giảm bớt chúng. Ngoài còn  có một  số công cụ giúp bạn chỉ ra phiên bản cần thiết phải đánh chỉ số  trong  khi loại trừ các phiên bản phụ đi kèm.

Hãy tham khảo cách sử dụng  Robots Exclusion Protocol (REP) để tránh  đánh chỉ số nội dung trùng  lặp hoặc không cần thiết, cá nhân :

Robots.txt disallows Web Robot, User-agent
- Bài  viết giới thiệu về Robots Exclusion Protocol (REP)với tệp tin   robots.txt và cú pháp, cách sử dụng đúng và danh sách các User Agent   Names.
Robots, HTML Meta và Google, Yahoo, Microsoft
- Qui ước chung về chuẩn REP của cả ba đại gia : Google, Yahoo và Microsoft : Robots.txt và HTML Meta
Googlebot và Robots.txt : Allow, Disallow
- Cách ứng dụng tệp tin robots.txt đối với máy tìm kiếm Google. Cách biên dịch đặc biệt tệp tin robots.txt của spider GoogleBot.
Robots META Tag – Metadata Elements
- Ứng dụng  thẻ Metadata Robots cho các trang đơn lẻ.
Hay sử dụng Redirection cho các thư mục, các trang:

Redirection Permanent Link – Redirect 301
- Sử dụng Redirection 301 để chuyển hướng các bài viết.
Cấu hình máy chủ Apache với htacess
- Sử dụng tên tin cấu hình Apache .htacess để chuyển hướng bài viết.
- Sử dụng các Session IDs trong URLs

Trước  khi đi vào chi tiết, nếu các bạn chưa nắm vững thành phần cơ  bản của  một liên kết siêu văn bản URL thì bạn hãy tham khảo bài viết các  thành phân cơ bản của URL, Web tĩnh và Web động.

Việc  Google đánh chỉ số các trang Web là liên tục. Tần suất của  Googlebot  lại phụ thuộc vào thứ hạng trang Web và mức độ cập nhật thông  tin của  trang. Để có trang Web đứng thứ hạng cao là công việc kiên trì  kéo dài.  Ngoài ra, Google cũng như các máy tìm kiếm khác luôn thích các  trang  Web tĩnh. Các tham biến xuất hiện cuối URL sẽ được máy tìm kiếm  coi như  là một thành phần của URL.

Nếu như trang Web động của bạn có  chứa tham số Session ID, thì có  nhiều khả năng là bọ tìm kiếm sẽ rơi  vào vòng vô tận khi đánh chỉ số  trang của bạn vì mỗi lần ghé thăm chúng  lại được gán một Session ID mới  và GoogleBot sẽ coi đây là bài viết  mới. Với Session ID, bạn sẽ tạo ra  nhiều nội dung trùng lặp như đã nói.  Và Google sẽ mất nhiều thời gian vô  ích đánh chỉ số, trong khi bạn lại  tốn them băng thông cho chúng.  Session ID sẽ làm giảm thứ hạng trang  của bạn.

Dù các thuật toán của Google đã cải thiện đáng kể trong  việc xử lý  các session ID, nhưng bạn nên sử dụng cookie thay cho dùng  tham biến  trên URL. Nhớ rằng chỉ có 2% người dùng không sử dụng cookie.
  Bạn cũng hãy cố gắng tạo ra các đường dẫn URL thân thiện (từ khóa trong  URL) bằng cách sử dụng mod_rewrite URL với htacess chẳng hạn, hay cấu  hình  Permanent Link cho WordPress.

Website bằng Flash

Về  mặt mỹ thuật, một trang Web trình bày hoàn toàn bằng Flash có thể  rát  bắt mắt, nhưng chắc chắn khó mà có thể có thứ hạng cao trên máy tìm   kiếm. Như trong bài viết SEO Flash Website cho Google thì dù các máy tìm  kiếm có thể đọc và đánh chỉ số Flash, nhưng khó mà  thấy một trang Web  Flash nào lại có thứ hạng cao đối với các từ khóa  nóng, có tính cạnh  tranh cao. Một trong những lý do đơn giản là Google  thích text. Và nếu  bạn trình bày trang với nhiều text thì Flash chỉ dừng lại ở việc cung cấp các hiệu ứng hình ảnh.

Sử dụng quá nhiều JavaScript

JavaScript  có thể rất hiệu quả trong thiết kế Website. Nhưng vấn đề  là Google sẽ  gặp khó khăn để hiểu mã nguồn javascript. Dù hiện nay và  trong tương,  Google đã và sẽ nỗ lực nhiều hơn nhưng việc sử dụng  JavaScript sẽ vẫn  thiếu hiệu qua trong việc liên lạc với máy tìm kiếm.

Để tối ưu,  những người làm SEO thường tách rời riêng JavaScript, còn  trong trường  hợp phải sử dụng, bạn hãy chèn file (include) hoặc dùng CSS  để thay thế  trong phần tiêu đề hoặc thân của Website. Hãy giúp máy hiểu được nội  dung chính của trang  và đánh chỉ số chúng dễ dàng, như thế, tất cả mọi  người đều được lợi.

Kỹ thuật Cloaking

Đây là kỹ xảo SEO “mũ đen” nhằm hiển thị nội dung khác cho bọ tìm kiếm so với người dùng thường. Đây là một kỹ thuật khác cũ được nhiều spammers sử dụng trong những năm trước.

Các  máy tìm kiếm ngày nay phát hiện dễ dàng trò gian lận này bằng  cách gửi  đi thường ký các bọ tìm kiếm mới với mục đích phát hiện  cloaking. Có  rất nhiều kỹ thuật cloaking, lừa các bọ tìm kiếm mà không  thể liệt kê  hết trong gìới hạn của bài viết. Tuy nhiên chúng đều sớm  muộn bị phát  hiện. Đây là một thủ thuật SEO “black hat” cần tránh.

Trong  trường hợp bị phát hiện, trang Web liên quan sẽ bị cấm. Vì thế  bạn  không nên sử dụng kỹ thuật này. Hãy giả quyết vấn đề bằng cách kỹ  thuật  khác.

Kết luận thủ thuật SEO

Qua  những phân tích bên trên, vietSEO đúc kết lại hai vấn đề chính mà  các  Webmaster, những người làm SEO cần chú ý khi áp dụng các thủ thuật  SEO :

  Hãy học cách thức hoạt động của máy tìm kiếm để giúp chúng hiểu nội   dung trang web của bạn. Các vấn đề tìm hiểu phần trên đều có một điểm   chung là chúng gây khó dễ cho các máy tìm kiếm trong việc đánh chỉ số và xác định nội dung trang Web. Vì thế hay xây dựng trang Web tương tác tốt với máy tìm kiếm nhằm cung cấp cho chúng những nội dung duy nhất.

  Đừng sử dụng thời gian vô ích trong việc đánh lừa các máy tìm kiếm.  Vì  các thuật toán của máy tìm kiếm thừa đủ thông minh để phát hiện ra  các  tiểu xảo, chưa kể đến sự tiếp sức con người trong việc chống spam.  Dù  ngay cả trường hợp bạn qua mắt được máy tìm kiếm. Thì đó cũng chỉ là   tạm thời trong một thời gian ngắn và cái giá phải trả khi bị lật tẩy sẽ   đắt hơn nhiều. Đánh lừa máy tìm kiếm không phải là cách thức lâu  dài.Hãy  sử dụng thời gian, sức lực và tiền bạc để đầu tư vào nội dung,  công cụ  hữu ích và tham gia các chương trình quảng bá khác mà bạn sẽ làm nếu như các máy tìm kiếm đã không tồn tại.
Tags