Tối ưu hóa công cụ tìm kiếm (dịch vụ SEO) là quá trình cải thiện chất lượng và số lượng lưu lượng truy cập vào một trang web hoặc một trang web từ các công cụ tìm kiếm. [1] SEO nhắm mục tiêu lưu lượng truy cập không phải trả tiền (được gọi là kết quả "tự nhiên" hoặc "không phải trả tiền") hơn là lưu lượng truy cập trực tiếp hoặc lưu lượng truy cập có trả tiền. Lưu lượng truy cập không phải trả tiền có thể bắt nguồn từ các loại tìm kiếm khác nhau, bao gồm tìm kiếm hình ảnh, tìm kiếm video, tìm kiếm học thuật, [2] tìm kiếm tin tức và các công cụ tìm kiếm dọc theo ngành cụ thể.

Là một chiến lược tiếp thị trên Internet, SEO xem xét cách thức hoạt động của các công cụ tìm kiếm, các thuật toán được lập trình máy tính điều khiển hành vi của công cụ tìm kiếm, những gì mọi người tìm kiếm, các cụm từ hoặc từ khóa tìm kiếm thực tại được nhập vào các công cụ tìm kiếm và công cụ tìm kiếm nào được đối tượng kim chỉ nam của họ ưa thích . SEO được thực hiện bởi vì một trang web sẽ nhận được nhiều khách truy cập hơn từ công cụ tìm kiếm khi các trang web xếp hạng cao hơn trong trang kết quả của công cụ tìm kiếm (SERP). Những khách truy cập này sau đó có thể được chuyển đổi thành khách hàng
Lịch sử

Các nhà quản trị web và nhà cung cấp nội dung bắt đầu tối ưu hóa trang web cho các công cụ tìm kiếm vào giữa những năm 1990, khi các công cụ tìm kiếm đầu tiên lập danh mục cho trang Web ban đầu. Ban đầu, tất cả các quản trị viên web chỉ cần gửi địa chỉ của một trang hoặc URL đến các công cụ không giống nhau sẽ gửi một trình thu thập thông tin web để thu thập thông tin trang đó, trích xuất các links đến các trang khác từ nó và trả lại thông tin tìm thấy trên trang được lập chỉ mục .[4] Quá trình này bao gồm một trình craw dữ liệu công cụ tìm kiếm tải xuống một trang và lưu trữ nó trên máy chủ của chính công cụ tìm kiếm. Chương trình thứ hai, được gọi là trình lập chỉ mục, trích xuất thông tin về trang, chẳng hạn như các từ mà trang chứa, vị trí của chúng và bất kỳ trọng số nào cho các từ cụ thể, tương tự như tất cả các liên kết mà trang chứa. Tất cả thông tin này sau đó được đưa vào một bộ lập lịch để thu thập thông tin vào một ngày sau đó.

Chủ sở hữu trang web nhận ra giá trị của thứ hạng cao và khả năng hiển thị trong kết quả của công cụ tìm kiếm, [5] tạo cơ hội cho cả những người thực hành SEO mũ trắng và mũ đen. Theo nhà phân tích ngành Danny Sullivan, cụm từ "tối ưu hóa công cụ tìm kiếm" có thể được sử dụng vào năm 1997. Sullivan ghi nhận Bruce Clay là một trong những người đầu tiên phổ biến thuật ngữ này. [6] Vào ngày 2 tháng 5 năm 2007, [7] Jason Gambert đã cố gắng đăng ký nhãn hiệu cho thuật ngữ SEO bằng cách thuyết phục Văn phòng nhãn hiệu ở Arizona [8] rằng SEO là một "quy trình" liên quan đến thao tác từ khóa chứ không phải "dịch vụ tiếp thị".

Các phiên bản đầu tiên của thuật toán tìm kiếm dựa trên thông tin do quản trị viên web cung cấp, chẳng hạn như thẻ meta từ khóa hoặc các tệp chỉ mục trong các công cụ như ALIWEB. Thẻ meta cung cấp hướng dẫn cho nội dung của mỗi trang. tuy vậy, việc sử dụng siêu dữ liệu để lập chỉ mục các trang được cho là ít đáng tin cẩn hơn vì sự tuyển lựa từ khóa của quản trị viên web trong thẻ meta có thể là sự trình bày không chính xác về nội dung thực tiễn của trang web. Dữ liệu không chính xác, không đầy đủ và không nhất quán trong các thẻ meta có thể và đã khiến các trang xếp hạng cho các tìm kiếm không liên quan. [9] [đáng ngờ - thảo luận] Các nhà cung cấp nội dung web cũng thao túng một số thuộc tính trong nguồn HTML của một trang nhằm cố gắng xếp hạng tốt trong công cụ tìm kiếm. [10] Đến năm 1997, các nhà thi công công cụ tìm kiếm nhận ra rằng các quản trị viên web đã nỗ lực để xếp hạng tốt trong công cụ tìm kiếm của họ và một số quản trị viên web thậm chí đang thao túng thứ hạng của họ trong kết quả tìm kiếm bằng cách nhồi các trang có rất nhiều từ khóa hoặc không liên quan. Các công cụ tìm kiếm ban đầu, chẳng hạn như Altavista và Infoseek, đã điều chỉnh thuật toán của họ để ngăn quản trị viên web thao túng thứ hạng. [11]
Bằng cách dựa nhiều vào các yếu tố như mật độ từ khóa, vốn chỉ nằm trong tầm kiểm soát của quản trị viên web, các công cụ tìm kiếm ban đầu đã bị lạm dụng và thao túng xếp hạng. Để cung cấp kết quả tốt hơn cho người dùng của họ, các công cụ tìm kiếm phải điều chỉnh để đảm bảo các trang kết quả của họ hiển thị các kết quả tìm kiếm tương xứng nhất, thay vì các trang không tác động bị quản trị web vô lương tâm nhồi nhiều từ khóa. Điều này có nghĩa là chuyển từ sự phụ thuộc nhiều vào mật độ thuật ngữ sang một quy trình toàn diện hơn để ghi các tín hiệu ngữ nghĩa. [12] Vì sự thành công và phổ biến của một công cụ tìm kiếm được xác định bởi khả năng tạo ra các kết quả phù hợp nhất cho bất kỳ tìm kiếm nhất mực nào, nên các kết quả tìm kiếm có chất lượng kém hoặc không liên quan có thể khiến người dùng tìm các nguồn tìm kiếm khác. Các công cụ tìm kiếm phản ứng bằng cách phát triển các thuật toán xếp hạng phức tạp hơn, có tính đến các yếu tố bổ sung mà quản trị viên web khó thao tác hơn. Năm 2005, một hội nghị thường niên, AIRWeb (Truy xuất thông tin kẻ thù trên Web), được ra đời để tập hợp các nhà thực hành và nhà nghiên cứu liên quan đến tối ưu hóa công cụ tìm kiếm và các chủ đề liên quan. [13]

Các công ty sử dụng các kỹ thuật quá mạnh có thể khiến các trang web khách hàng của họ bị cấm khỏi kết quả tìm kiếm. Năm 2005, Wall Street Journal đưa tin về một công ty, Traffic Power, bị cáo buộc sử dụng các kỹ thuật rủi ro cao và không tiết lộ những rủi ro đó cho khách hàng của mình. [14] Tạp chí Wired đã báo cáo rằng cùng một công ty đã kiện blogger và SEO Aaron Wall vì đã viết về lệnh cấm. [15] Matt Cutts của Google sau đó xác nhận rằng trên thực tế, Google đã cấm Traffic Power và một số khách hàng của mình. [16]

Một số công cụ tìm kiếm cũng đã tiếp cận với ngành công nghiệp SEO và thường xuyên là nhà tài trợ và khách mời tại các hội nghị, webchats và hội thảo về SEO. Các công cụ tìm kiếm chính cung cấp thông tin và hướng dẫn để giúp tối ưu hóa trang web. [17] [18] Google có chương trình Sơ đồ trang web để giúp quản trị viên web tìm hiểu xem Google có gặp vấn đề gì khi lập chỉ mục trang web của họ hay không và cũng cung cấp dữ liệu về lưu lượng truy cập của Google vào trang web. [19] Bing Webmaster Tools cung cấp một cách để quản trị viên web gửi sơ đồ trang web và nguồn cấp dữ liệu web, cho phép người dùng xác định "tốc độ thu thập dữ liệu" và theo dõi trạng thái chỉ mục của các trang web.

Vào năm 2015, có thông tin cho rằng Google đang phát triển và quảng bá tìm kiếm trên thiết bị thiết bị cầm tay như một tính năng chính trong các sản phẩm tương lai. Để đáp lại, nhiều thương hiệu bắt đầu có cách tiếp cận khác đối với các chiến lược tiếp thị trên Internet của họ. [20]
Mối quan hệ với Google

Năm 1998, hai sinh viên tốt nghiệp tại Đại học Stanford, Larry Page và Sergey Brin, đã phát triển "Backrub", một công cụ tìm kiếm dựa trên một thuật toán toán học để review mức độ nổi bật của các trang web. Con số được tính toán bởi thuật toán, Xếp hạng trang, là một hàm của số lượng và độ mạnh của các liên kết đến. [21] PageRank ước tính khả năng một trang nhất quyết sẽ được tiếp cận bởi một người dùng web ngẫu nhiên lướt web và theo các liên kết từ trang này sang trang khác. Trên thực tại, điều này có nghĩa là một số liên kết mạnh hơn những liên kết khác, vì trang Xếp hạng trang cao hơn có nhiều khả năng được truy cập bởi người lướt web ngẫu nhiên hơn.

Page và Brin ra đời Google vào năm 1998. [22] Google đã lôi cuốn một lượng người theo dõi trung thành giữa số lượng tăng thêm người dùng Internet, những người thích thiết kế đơn giản của nó. [23] Các yếu tố ngoài trang (chẳng hạn như Xếp hạng trang và phân tích siêu liên kết) được xem xét tương tự như các yếu tố trên trang (chẳng hạn như tần suất từ ​​khóa, thẻ meta, tiêu đề, liên kết và cấu trúc trang web) để cho phép Google tránh loại thao tác được thấy trong các công cụ tìm kiếm mà chỉ xem xét các yếu tố trên trang cho thứ hạng của họ. Mặc dù PageRank khó chơi hơn, nhưng các quản trị viên web đã phát triển các công cụ và chiến lược xây dựng liên kết để tác động đến công cụ tìm kiếm Inktomi và các cách thức này được chứng minh là có thể áp dụng tương tự đối với PageRank chơi game. Nhiều trang web tập kết vào việc trao đổi, mua và bán các liên kết, thường ở quy mô lớn. Một số kế hoạch này, hoặc các trang trại backlinks, thúc đẩy đến việc tạo ra hàng nghìn trang web với mục đích duy nhất là gửi spam liên kết. [24]

Đến năm 2004, các công cụ tìm kiếm đã liên minh một loạt các yếu tố chưa được tiết lộ trong các thuật toán xếp hạng của họ để giảm thúc đẩy của việc thao túng liên kết. Vào tháng 6 năm 2007, Saul Hansell của The New York Times tuyên bố rằng Google xếp hạng các trang web sử dụng hơn 200 tín hiệu không giống nhau. [25] Các công cụ tìm kiếm hàng đầu, Google, Bing và Yahoo, không tiết lộ các thuật toán mà họ sử dụng để xếp hạng các trang. Một số học viên SEO đã nghiên cứu các cách tiếp cận khác nhau để tối ưu hóa công cụ tìm kiếm và đã chia sẻ ý kiến ​​cá nhân của họ. [26] Bằng sáng chế thúc đẩy đến công cụ tìm kiếm có thể cung cấp thông tin để hiểu rõ hơn về công cụ tìm kiếm. [27] Năm 2005, Google bắt đầu cá nhân hóa kết quả tìm kiếm cho từng người dùng. Tùy thuộc vào lịch sử tìm kiếm trước đó của họ, Google tạo ra kết quả cho những người dùng đã đăng nhập. [28]

Vào năm 2007, Google đã công bố một chiến dịch chống lại các links trả phí chuyển PageRank. [29] Vào ngày 15 tháng 6 năm 2009, Google tiết lộ rằng họ đã thực hiện các biện pháp để giảm thiểu ảnh hưởng của việc tạo PageRank bằng cách sử dụng thuộc tính nofollow trên các link. Matt Cutts, một kỹ sư phần mềm nổi tiếng tại Google, đã thông báo rằng Google Bot sẽ không còn xử lý bất kỳ backlinks nofollow nào theo cách tương tự, để ngăn các nhà cung cấp dịch vụ SEO sử dụng nofollow để tạo PageRank. [30] Kết quả của sự thay đổi này là việc sử dụng nofollow đã dẫn đến việc bốc hơi PageRank. Để tránh những điều trên, các kỹ sư SEO đã phát triển các kỹ thuật thay thế thay thế các thẻ nofollowed bằng JavaScript bị xáo trộn và do đó cho phép tạo PageRank. Ngoài ra, một số chiến thuật đã được yêu cầu bao gồm việc sử dụng iframe, Flash và JavaScript. [31]

Vào tháng 12 năm 2009, Google thông báo họ sẽ sử dụng lịch sử tìm kiếm trên web của tất cả người dùng của mình để đưa vào kết quả tìm kiếm. [32] Vào ngày 8 tháng 6 năm 2010, một hệ thống lập chỉ mục web mới có tên là Google Caffeine đã được có phát ngôn. Được thiết kế để cho phép người dùng tìm thấy kết quả tin tức, bài đăng trên diễn đàn và nội dung khác sau khi xuất bản sớm hơn nhiều so với trước đây, Google Caffeine là một thay đổi đối với cách Google cập nhật chỉ mục của mình để gia công cho mọi thứ hiển thị nhanh hơn trên Google so với trước đây. Theo Carrie Grimes, kỹ sư phần mềm đã công bố Caffeine cho Google, "Caffeine cung cấp kết quả tìm kiếm trên web mới hơn 50% so với chỉ mục rốt cuộc của chúng tôi ..." [33] Google Instant, tìm kiếm theo thời gian thực, được giới thiệu vào cuối năm 2010 trong cố gắng làm cho kết quả tìm kiếm cân xứng và kịp thời hơn. Trong lịch sử, các quản trị viên trang web đã dành nhiều tháng hoặc thậm chí nhiều năm để tối ưu hóa một trang web để tăng thứ hạng tìm kiếm. Với sự phát triển về mức độ phổ biến của các trang mạng xã hội và blog, các công cụ hàng đầu đã thực hiện các thay đổi đối với thuật toán của họ để cho phép nội dung mới có thứ hạng nhanh chóng trong kết quả tìm kiếm. [34]
Vào tháng 2 năm 2011, Google đã tuyên bố bản cập nhật Panda, bản cập nhật này sẽ phạt các trang web có nội dung trùng lặp từ các trang web và nguồn khác. Trong lịch sử các trang web đã coppy nội dung của nhau và được hưởng lợi trong xếp hạng công cụ tìm kiếm bằng cách tham gia vào thực hành này. mặc dù, Google đã triển khai một hệ thống mới trừng phạt các trang web có nội dung không độc đáo. [35] Google Penguin năm 2012 đã cố gắng trừng phạt các trang web sử dụng các kỹ thuật thao túng để cải thiện thứ hạng của họ trên công cụ tìm kiếm. [36] mặc dù Google Penguin đã được trình bày như một thuật toán nhằm chống lại spam web, nó thực thụ giao hội vào các backlink spam [37] bằng cách reviews chất lượng của các trang web mà các links đến từ đó. Bản cập nhật Google Hummingbird 2013 có một thay đổi thuật toán được thiết kế để cải thiện khả năng xử lý ngôn ngữ tự nhiên của Google và hiểu ngữ nghĩa của các trang web. Hệ thống xử lý ngôn ngữ của Hummingbird thuộc thuật ngữ mới được công nhận là "tìm kiếm đàm thoại", trong đó hệ thống chú ý nhiều hơn đến từng từ trong truy vấn để đối sánh các trang với ý nghĩa của truy vấn hơn là một vài từ. [38] tương tác đến những thay đổi được thực hiện để tối ưu hóa công cụ tìm kiếm, đối với các nhà xuất bản và nhà văn nội dung, Hummingbird nhằm giải quyết các vấn đề bằng cách loại bỏ nội dung không ảnh hưởng và spam, cho phép Google tạo ra nội dung chất lượng cao và dựa vào chúng để trở thành tác giả 'đáng tin cậy' .

Vào tháng 10 năm 2019, Google thông báo họ sẽ bắt đầu áp dụng mô hình BERT cho các truy vấn tìm kiếm bằng tiếng Anh ở Hoa Kỳ. Trình diễn mã hóa hai chiều từ Người biến hình (BERT) là một nỗ lực khác của Google nhằm cải thiện khả năng xử lý ngôn ngữ tự nhiên của họ nhưng lần này là để hiểu rõ hơn các truy vấn tìm kiếm của người dùng. [39] Về tối ưu hóa công cụ tìm kiếm, BERT dự định kết nối người dùng dễ ợt hơn với nội dung có liên quan và tăng chất lượng lưu lượng truy cập đến các trang web đang xếp hạng trong Trang kết quả của công cụ tìm kiếm.
phương pháp
Được lập chỉ mục
Công cụ tìm kiếm sử dụng các thuật toán toán học phức tạp để giải thích trang web nào mà người dùng tìm kiếm. Trong sơ đồ này, nếu mỗi bong bóng đại diện cho một trang web, các chương trình đôi khi được gọi là trình thu thập dữ liệu sẽ kiểm tra trang web nào link đến trang web nào khác, với các mũi tên đại diện cho các liên kết này. Các trang web thu được nhiều links đến hơn hoặc liên kết mạnh hơn, được cho là quan trọng hơn và những gì người dùng đang tìm kiếm. Trong ví dụ này, vì trang web B là nơi nhận nhiều backlinks đến, nó xếp hạng cao hơn trong tìm kiếm trên web. Và các link "mang qua", chẳng hạn như trang web C, Mặc dù nó chỉ có một liên kết đến, có một links đến từ một trang web rất phổ biến (B) trong khi trang web E thì không. Lưu ý: Phần trăm được làm tròn.

Các công cụ tìm kiếm bậc nhất, chẳng hạn như Google, Bing và Yahoo !, sử dụng trình thu thập thông tin để tìm các trang cho kết quả tìm kiếm theo thuật toán của họ. Các trang được link từ các trang được lập chỉ mục của công cụ tìm kiếm khác không cần phải gửi vì chúng được tìm thấy auto. Yahoo! Directory và DMOZ, hai thư mục chính lần lượt đóng cửa vào năm 2014 và 2017, đều yêu cầu gửi thủ công và đánh giá biên tập của con người. [40] Google cung cấp Google Search Console, trong đó nguồn cấp dữ liệu Sơ đồ trang web XML có thể được tạo và gửi miễn phí để đảm bảo rằng tất cả các trang đều được tìm thấy, đặc biệt là các trang không thể phát hiện được bằng cách tự động hóa theo liên kết [41] ngoài bảng điều khiển gửi URL của chúng. [42 ] Yahoo! trước đây đã vận hành một dịch vụ gửi trả phí đảm bảo thu thập thông tin với giá mỗi nhấp chuột; [43] mặc dù, hoạt động này đã bị ngừng vào năm 2009.

Trình thu thập thông tin của công cụ tìm kiếm có thể xem xét một số yếu tố không giống nhau khi thu thập thông tin một trang web. Không phải mọi trang đều được lập chỉ mục bởi các công cụ tìm kiếm. Khoảng cách của các trang từ thư mục gốc của một trang web cũng có thể là một yếu tố trong việc các trang có được thu thập thông tin hay không. [44]

Ngày nay, hầu hết mọi người đang tìm kiếm trên Google bằng thiết bị di động. [45] Vào tháng 11 năm 2016, Google đã công bố một thay đổi lớn đối với cách thu thập dữ liệu các trang web và bắt đầu đặt chỉ mục của họ lên trên thiết bị điện thoại trước tiên, Tức là phiên bản thiết bị cầm tay của một trang web nhất định trở thành điểm khởi đầu cho những gì Google đưa vào chỉ mục của họ. [46] Vào tháng 5 năm 2019, Google đã cập nhật công cụ kết xuất của trình thu thập thông tin của họ thành phiên bản Chromium mới nhất (74 tại thời điểm thông báo). Google cho biết rằng họ sẽ thường xuyên cập nhật công cụ kết xuất Chromium lên phiên bản mới nhất. [47] Vào tháng 12 năm 2019, Google đã bắt đầu cập nhật chuỗi Tác nhân người dùng của trình thu thập thông tin của họ để phản ánh phiên bản Chrome mới nhất được dịch vụ kết xuất của họ sử dụng. Sự chậm trễ này là để cho phép quản trị viên web có thời gian cập nhật mã của họ đáp ứng các chuỗi Tác nhân người dùng bot cụ thể. Google đã chạy các Review và cảm thấy tin rằng tác động sẽ nhỏ. [48]
Ngăn thu thập thông tin
Bài chi tiết: Tiêu chuẩn loại trừ rô bốt

Để tránh nội dung không mong muốn trong chỉ mục tìm kiếm, quản trị viên web có thể hướng dẫn trình thu thập thông tin không thu thập dữ liệu các tệp hoặc thư mục nhất định thông qua tệp robots.txt chuẩn trong thư mục gốc của miền. Bên cạnh đó, một trang có thể bị loại trừ rõ ràng khỏi cơ sở dữ liệu của công cụ tìm kiếm bằng cách sử dụng thẻ meta dành riêng cho rô bốt (thường là

). Khi một công cụ tìm kiếm truy cập một trang web, tệp robots.txt nằm trong thư mục gốc là tệp đầu tiên được thu thập thông tin. sau đó, tệp robots.txt sẽ được phân tích cú pháp và sẽ hướng dẫn rô bốt biết trang nào không được thu thập thông tin. Vì trình thu thập thông tin của công cụ tìm kiếm có thể giữ bản sao được lưu trong bộ nhớ cache của tệp này, nên đôi khi nó có thể craw dữ liệu các trang mà quản trị viên web không muốn thu thập thông tin. Các trang thường bị ngăn thu thập thông tin bao gồm các trang đăng nhập cụ thể như giỏ hàng và nội dung dành riêng cho người dùng, chẳng hạn như kết quả tìm kiếm từ các tìm kiếm nội bộ. Vào tháng 3 năm 2007, Google đã cảnh báo các quản trị viên web rằng họ nên ngăn chặn việc lập chỉ mục các kết quả tìm kiếm nội bộ vì những trang đó bị coi là spam tìm kiếm. [49]
ngày càng nổi bật

Nhiều phương pháp có thể làm tăng sự nổi bật của một trang web trong kết quả tìm kiếm. Việc liên kết chéo giữa các trang của cùng một trang web để cung cấp nhiều liên kết hơn đến các trang quan trọng có thể cải thiện khả năng hiển thị của nó. [50] viết bài bao gồm cụm từ khóa được tìm kiếm thường xuyên, để có liên quan đến nhiều loại truy vấn tìm kiếm sẽ có xu hướng tăng lưu lượng truy cập. [50] Cập nhật nội dung để giữ cho các công cụ tìm kiếm thu thập thông tin lại thường xuyên có thể tạo thêm sức nặng cho một trang web. Thêm từ khóa có liên quan vào siêu dữ liệu của trang web, bao gồm thẻ tiêu đề và mô tả meta, sẽ có xu hướng cải thiện mức độ tương tác của danh sách tìm kiếm của trang web, do đó tăng lưu lượng truy cập. Việc chuẩn hóa URL của các trang web có thể truy cập qua nhiều URL, sử dụng bộ phận liên kết chuẩn [51] hoặc qua chuyển hướng 301 có thể giúp đảm bảo các liên kết đến các phiên bản khác biệt của URL đều được tính vào điểm phổ biến của backlink của trang.
Kỹ thuật mũ trắng so với mũ đen

Các kỹ thuật SEO có thể được tạo thành hai loại lớn: các kỹ thuật mà các công ty công cụ tìm kiếm đề nghị như một phần của xây dựng tốt ("mũ trắng") và các kỹ thuật mà các công cụ tìm kiếm không chấp thuận ("mũ đen"). Các công cụ tìm kiếm cố gắng giảm thiểu thúc đẩy của thứ sau, trong số đó có spamdexing. Các nhà bình luận trong ngành đã phân loại các cách thức này và các học viên sử dụng chúng, là SEO mũ trắng hoặc SEO mũ đen. [52] Mũ trắng có xu hướng tạo ra kết quả tồn tại trong một thời gian dài, trong khi mũ đen dự đoán rằng các trang web của họ rút cuộc có thể bị cấm tạm thời hoặc vĩnh viễn khi các công cụ tìm kiếm phát hiện ra chúng đang làm gì. [53]

Một kỹ thuật SEO được coi là mũ trắng nếu nó tuân thủ các nguyên tắc của công cụ tìm kiếm và không liên quan đến sự lừa dối. Vì các hướng dẫn của công cụ tìm kiếm [17] [18] [54] không được viết dưới dạng một loạt các quy tắc hoặc lệnh, đây là một điểm đặc biệt quan trọng cần Lưu ý. SEO mũ trắng không chỉ là tuân theo các nguyên tắc mà còn là đảm bảo rằng nội dung mà một công cụ tìm kiếm lập chỉ mục và xếp hạng sau đó là cùng một nội dung mà người dùng sẽ thấy. Lời khuyên mũ trắng thường được tóm tắt là tạo nội dung cho người dùng, không phải cho công cụ tìm kiếm và Tiếp nối làm cho nội dung đó dễ dàng truy cập vào các thuật toán "con nhện" trực tuyến, thay vì cố gắng đánh lừa thuật toán khỏi mục đích đã định. SEO mũ trắng về nhiều mặt tương tự như phát triển web nhằm liên quan khả năng truy cập, [55] Mặc dù cả hai không giống nhau.

SEO mũ đen cố gắng cải thiện thứ hạng theo những cách bị các công cụ tìm kiếm chối từ hoặc liên quan đến lừa dối. Một kỹ thuật mũ đen sử dụng văn bản ẩn, hoặc là văn bản có màu tương tự như nền, trong một div ẩn hoặc được đặt ngoài màn hình. Một phương pháp khác cung cấp một trang khác tùy thuộc vào việc trang đó được khách truy cập hay công cụ tìm kiếm yêu cầu, một kỹ thuật được gọi là kỹ thuật che giấu. tiện thể loại khác đôi khi được sử dụng là SEO mũ xám. Điều này nằm giữa cách thức tiếp cận mũ đen và mũ trắng, trong đó các phương pháp được sử dụng tránh trang web bị phạt nhưng không hoạt động trong việc tạo ra nội dung tốt nhất cho người dùng. SEO mũ xám hoàn toàn tập trung vào việc cải thiện thứ hạng của công cụ tìm kiếm.

Các công cụ tìm kiếm có thể phạt các trang web mà họ phát hiện bằng cách sử dụng các cách thức mũ đen hoặc xám, bằng cách giảm thứ hạng của họ hoặc sa thải hoàn toàn danh sách của họ khỏi cơ sở dữ liệu của họ. Các hình phạt như vậy có thể được áp dụng tự động bởi các thuật toán của công cụ tìm kiếm hoặc bằng cách xem xét trang web thủ công. Một ví dụ là vào tháng 2 năm 2006 Google đã thải trừ cả BMW Đức và Ricoh Đức vì hành vi lừa đảo. [56] Tuy nhiên, cả hai công ty đã nhanh lẹ xin lỗi, sửa các trang vi phạm và được khôi phục về trang kết quả của công cụ tìm kiếm của Google. [57]
Là chiến lược tiếp thị

SEO không phải là một chiến lược thích hợp cho mọi trang web và các chiến lược tiếp thị trên Internet khác có thể hiệu quả hơn, chẳng hạn như quảng cáo trả tiền thông qua chiến dịch trả tiền cho mỗi lần nhấp chuột (PPC), tùy thuộc vào mục tiêu của nhà điều hành trang web. Tiếp thị công cụ tìm kiếm (SEM) là hoạt động xây dựng, chạy và tối ưu hóa các chiến dịch quảng cáo trên công cụ tìm kiếm. [58] Sự khác biệt của nó so với SEO được miêu tả đơn giản nhất là sự khác biệt giữa xếp hạng ưu tiên có trả tiền và không trả tiền trong kết quả tìm kiếm. SEM tập trung vào sự nổi bật hơn là mức độ thúc đẩy; các nhà phát triển trang web nên coi SEM là tầm quan trọng hàng đầu khi xem xét khả năng hiển thị vì hầu hết điều đào bới danh sách chính tìm kiếm của họ. [59] Một chiến dịch tiếp thị trên Internet thành công cũng có thể phụ thuộc vào việc xây dựng các trang web chất lượng cao để thu hút và thuyết phục người dùng internet, tùy chỉnh cấu hình các chương trình phân tích để cho phép chủ sở hữu trang web đo lường kết quả và cải thiện tỷ lệ chuyển đổi của trang web. [60] Vào tháng 11 năm 2015, Google đã phát hành phiên bản đầy đủ 160 trang của Nguyên tắc xếp hạng chất lượng tìm kiếm của mình cho công chúng, [61] cho thấy sự thay đổi trọng tâm của họ đối với "tính hữu ích" và tìm kiếm trên thiết bị di động. Trong những năm cách đây không lâu, Thị phần điện thoại đã bùng nổ, vượt qua việc sử dụng máy tính để bàn, biểu hiện bởi StatCounter vào tháng 10 năm 2016, nơi họ phân tích 2,5 triệu trang web và nhận thấy rằng 51,3% số trang được tải bằng thiết bị di động. [62] Google là một trong những công ty đang tận dụng sự phổ biến của việc sử dụng thiết bị di động bằng cách khuyến khích các trang web sử dụng Google Search Console của họ, Bài kiểm tra tính thân thiện với thiết bị điện thoại, cho phép các công ty đo lường trang web của họ với kết quả của công cụ tìm kiếm và xác định mức độ thân thiện với người dùng trang web của họ là.

SEO có thể tạo ra lợi tức đầu tư tương xứng. Tuy nhiên, các công cụ tìm kiếm không được trả tiền cho lưu lượng tìm kiếm không phải trả tiền, các thuật toán của chúng thay đổi và không có gì đảm bảo về việc tiếp tục giới thiệu. Do sự thiếu đảm bảo này và sự không chắc chắn, một doanh nghiệp phụ thuộc nhiều vào lưu lượng truy cập của công cụ tìm kiếm có thể bị thiệt hại lớn nếu công cụ tìm kiếm ngừng gửi khách truy cập. [63] Các công cụ tìm kiếm có thể thay đổi thuật toán của chúng, ảnh hưởng đến xếp hạng trên công cụ tìm kiếm của trang web, có thể dẫn đến mất lưu lượng truy cập nghiêm trọng. Theo Giám đốc điều hành của Google, Eric Schmidt, trong năm 2010, Google đã thực hiện hơn 500 lần thay đổi thuật toán - gần 1,5 lần Hàng ngày. [64] Nó được coi là một thực hành kinh doanh khôn ngoan cho các nhà điều hành trang web để giải phóng mình khỏi sự phụ thuộc vào lưu lượng truy cập của công cụ tìm kiếm. [65] Ngoài khả năng truy cập về trình thu thập dữ liệu web (đã nêu ở trên), khả năng truy cập web của người dùng ngày càng trở nên quan trọng đối với SEO.
Thị phần quốc tế

Các kỹ thuật tối ưu hóa được điều chỉnh tương xứng với các công cụ tìm kiếm thống trị trong thị trường mục tiêu. thị phần của các công cụ tìm kiếm khác biệt giữa các thị trường, cũng tương tự cạnh tranh. Năm 2003, Danny Sullivan tuyên bố rằng Google đại diện cho khoảng 75% tổng số tìm kiếm. [66] Ở các thị trường bên ngoài Hoa Kỳ, thị phần của Google thường lớn hơn và Google vẫn là công cụ tìm kiếm thống trị trên toàn thế giới tính đến năm 2007. [67] Tính đến năm 2006, Google có 85–90% thị trường ở Đức. [68] Trong khi có hàng trăm công ty SEO ở Mỹ vào thời điểm đó, thì chỉ có khoảng năm công ty ở Đức. [68] Tính đến tháng 6 năm 2008, Thị Trường của Google tại Vương quốc Anh là gần 90% theo Hitwise. [69] thị phần đó đạt được ở một số quốc gia.

Tính đến năm 2009, chỉ có một số thị trường lớn mà Google không phải là công cụ tìm kiếm bậc nhất. Trong hầu hết các trường hợp, khi Google không dẫn đầu trong một thị trường nhất định, Google sẽ tụt hậu so với một công ty địa phương. Các thị phần điển hình đáng để ý nhất là Trung Quốc, Nhật Bản, Hàn Quốc, Nga và Cộng hòa Séc, nơi tương ứng là Baidu, Yahoo! Nhật Bản, Naver, Yandex và Seznam dẫn đầu thị trường.

Tối ưu hóa tìm kiếm thành công cho thị trường quốc tế có thể yêu cầu dịch chuyên nghiệp hóa các trang web, đăng ký tên miền với miền cấp cao nhất trong thị trường phương châm và lưu trữ web cung cấp địa chỉ IP cục bộ. Mặt khác, các yếu tố chủ chốt của tối ưu hóa tìm kiếm về cơ bản giống nhau, bất kể ngôn ngữ. [68]
Tiền lệ pháp

Vào ngày 17 tháng 10 năm 2002, SearchKing đã đệ đơn kiện lên Tòa án quận Hoa Kỳ, Quận Tây Oklahoma, chống lại công cụ tìm kiếm Google. Tuyên bố của SearchKing là các chiến thuật của Google để ngăn chặn gửi thư rác đã tạo nên một sự can thiệp nghiêm trọng vào các quan hệ hợp đồng. Vào ngày 27 tháng 5 năm 2003, tòa án đã cho phép Google bác bỏ đơn khiếu nại vì SearchKing "không đưa ra được khiếu nại mà theo đó có thể được cứu trợ". [70] [71]

Vào tháng 3 năm 2006, KinderStart đã đệ đơn kiện Google về xếp hạng công cụ tìm kiếm. Trang web của KinderStart đã bị xóa khỏi chỉ mục của Google trước vụ kiện, và lượng truy cập vào trang web đã giảm 70%. Vào ngày 16 tháng 3 năm 2007, Tòa án Quận phía Bắc của California (San Jose Division) của Hoa Kỳ đã bác bỏ đơn khiếu nại của KinderStart mà không cần nghỉ phép để sửa đổi và ưng ý một phần kiến ​​nghị của Google về các biện pháp trừng phạt theo Quy tắc 11 đối với luật sư của KinderStart, yêu cầu anh ta phải trả một phần tiền chi phí hợp pháp. [72] [73]

Nhận xét

Bài đăng phổ biến từ blog này

Bất động sản Phạm Ngọc Hạnh hướng dẫn từ A đến Z các bước tiến hành mua nhà đất

tính pháp lý Dự án Angsana Hồ Tràm như thế nào

thi công lắp đặt camera CTY DOANH NGHIỆP ở Hải Dương