Lịch sử hấp dẫn của SEO: Từ những năm 90 đến nay

Các nhà tiếp thị nội dung đều đang cạnh tranh để tạo ra nội dung được tối ưu hóa cho SEO, nhưng tối ưu hóa công cụ tìm kiếm đã diễn ra như thế nào ngay từ đầu? Đọc tiếp để tìm hiểu tất cả về lịch sử của SEO, cách nó phát triển và hướng đi của nó.

SEO bắt đầu từ khi nào?

Khái niệm về SEO bắt đầu trước khi Google ra đời. Theo truyền thuyết, ban nhạc Jefferson Starship từng là một trong những lý do chính cho thuật ngữ SEO vào khoảng năm 1995-1997. Người quảng bá Bob Heyman đã nhận được một cuộc gọi giận dữ từ ban nhạc khi họ đang trên đường và không thể tìm thấy trang web của họ.

Một số fansite đã viết rất say mê về “Jefferson Starship” đến nỗi họ đã vượt qua trang ban nhạc thực tế trên SERPs. Vì vậy, Heyman và đối tác của anh ấy là Leland Harden đã tăng số lượng tham chiếu đến “Jefferson Starship” trên trang chính thức, điều này đã đưa họ lên đầu bảng xếp hạng.

Lịch sử hấp dẫn của SEO

Ai đã phát minh ra thuật ngữ SEO?

Theo giai thoại này, Bob Heyman và Leland Harden đã phát minh ra thuật ngữ SEO vào khoảng năm 1995-1997, nhưng các chuyên gia tự hỏi có bao nhiêu câu chuyện này là sự thật hay hư cấu. Vào thời điểm đó, để tăng hiệu suất SEO của bạn, bạn chỉ cần một số liên kết trong, liên kết ngoài, một số tham chiếu đến cụm từ khóa trọng tâm của bạn và một trang web hoạt động. Vào giữa đến cuối những năm 1990, một số nhà tiên phong về công nghệ đã bắt đầu sử dụng các chiến thuật này để thu được những kết quả đáng kể.

Năm 1997, Webstep Marketing Agency là nhóm đầu tiên sử dụng cụm từ “tối ưu hóa công cụ tìm kiếm” trong các tài liệu tiếp thị của họ. Và khoảng năm 1998, Danny Sullivan, người sáng lập Search Engine Watch, bắt đầu phổ biến thuật ngữ này và giúp khách hàng tối ưu hóa nội dung của họ để xếp hạng tốt trong kết quả của công cụ tìm kiếm.

Đến năm 2003, thuật ngữ “tối ưu hóa công cụ tìm kiếm” lần đầu tiên xuất hiện trên Wikipedia, củng cố vị thế của nó trong văn hóa internet và truyền cảm hứng cho ngành tư vấn và phân tích đang phát triển giúp các công ty vươn lên dẫn đầu trong kết quả tìm kiếm.

Nỗ lực không thành công để giữ bản quyền thuật ngữ “SEO”

Mặc dù ngành công nghiệp SEO đang phát triển, nhưng nhiều nhà tiếp thị đã sử dụng các chiến thuật mũ đen hoặc nhồi nhét từ ngữ để cải thiện hiệu suất tìm kiếm. Nhưng vào năm 2007, Jason Gambert, người có thể là người thật hoặc không, đã cố gắng sở hữu nhãn hiệu cho thuật ngữ “SEO”. Gambert bị cáo buộc muốn bảo vệ tính toàn vẹn của tối ưu hóa công cụ tìm kiếm và cứu Internet khỏi các công ty đang săn lùng người tiêu dùng.

Không có gì ngạc nhiên khi các nhà tiếp thị nội dung và chuyên gia SEO khác không quá hào hứng với sự phát triển này, cũng như Văn phòng Bằng sáng chế Hoa Kỳ, người đã từ chối nhãn hiệu vào năm 2008.

SEO và sự trỗi dậy của Google

Mặc dù SEO có trước Google, nhưng sự trỗi dậy của cỗ máy tìm kiếm này do Larry Page và Sergey Brin khởi xướng đã thống trị sự chú ý của SEO trong gần 20 năm. Vì vậy, mặc dù mọi người đề cập đến các công cụ tìm kiếm chung chung, Google vẫn là công cụ quan trọng nhất trong lịch sử SEO. Xem xét rằng Google chiếm gần 93% việc sử dụng công cụ tìm kiếm, sự thống trị này có lẽ sẽ không còn sớm nữa.

Nhưng một trong những lý do chính khiến Google có thể vượt qua Yahoo, AltaVista, Dog Pile, Infoseek, Ask Jeeves, v.v. là vì nó cung cấp kết quả truy vấn tìm kiếm tốt hơn. Nó cũng được đầu tư rất nhiều vào các máy đào tạo về tăng cường dữ liệu để tiếp tục cải thiện quy trình của mình. Tính đến năm 2021, nó đánh giá hơn 200 yếu tố khi xác định thứ hạng SEO, nhưng những yếu tố này đã tăng lên theo thời gian.

SEO đã phát triển như thế nào?

Vì Google đã là lực lượng thống trị trong ngành SEO trong vài năm, nên nhiều ngày quan trọng xoay quanh bản cập nhật Google Core mới nhất. Vì vậy, việc xem xét lịch sử tối ưu hóa công cụ tìm kiếm thông qua lăng kính tìm kiếm của Google có thể cực kỳ hữu ích trong việc hiểu tìm kiếm thông thường đã thay đổi như thế nào trong những năm qua và tiêu chí nào quan trọng nhất.

Google đã thường xuyên giới thiệu các thuật toán mới cho hệ thống thuật toán của mình, cung cấp các tính năng khác nhau nhằm cải thiện chất lượng tổng thể của kết quả tìm kiếm. Matt Cutts, trưởng bộ phận webspam và kỹ sư tìm kiếm tại Google từ năm 2001 đến năm 2016, đã thiết kế nhiều bản cập nhật này.

Mọi cập nhật thuật toán đều dẫn đến sự đau đớn hoặc sung sướng cho các nhà tiếp thị nội dung, cũng như xáo trộn việc lập chỉ mục các miền và xác định đâu là “nội dung có liên quan” thực sự. Nhưng hiểu được lịch sử ngắn gọn này có thể cực kỳ hữu ích khi dự đoán các xu hướng mới của ngành.

Các thuật toán của Google đã thay đổi như thế nào?

Lịch sử của SEO. có đầy đủ các thay đổi đối với thuật toán của Google và tất cả chúng đều hoạt động cùng nhau để tạo ra mục tiêu cung cấp nội dung phù hợp hơn cho người dùng. Những cập nhật này có xu hướng thực hiện một trong ba điều sau: lọc ra chiến thuật spam và mũ đen, ưu tiên nội dung địa phương mới, có liên quan hoặc cung cấp kết quả có liên quan cho các tìm kiếm ngữ nghĩa.

Khi hiểu được quá trình phát triển này, sẽ dễ dàng nhận thấy cách thức tìm kiếm thông thường ngày càng trở nên tinh tế hơn. Bạn cũng có thể xem các thuật toán khác nhau được xây dựng dựa trên các thuật toán trước đây như thế nào.

Tuy nhiên, hãy nhớ rằng Google tiếp tục tinh chỉnh và cập nhật từng bản cập nhật này. Vì vậy, mặc dù thuật toán có thể đã tồn tại hơn một thập kỷ nhưng nó vẫn ảnh hưởng đến kết quả tìm kiếm ngày nay. Phiên bản 4 của một thuật toán sẽ khá khác so với phiên bản 1. Dưới đây là một vài thuật toán chính đã định hình lịch sử của SEO.

Xếp hạng trang 1996

Dự án ban đầu do Sergey Brin và Larry Page tạo ra này đã giúp mở đường cho gã khổng lồ sau này trở thành Google. Nó đánh giá các yếu tố bao gồm thẩm quyền tên miền và các liên kết bên trong và bên ngoài. Mặc dù thuật toán này đã tạo ra một nền tảng vững chắc cho việc lập chỉ mục tự động của Internet, nhưng nó vẫn dễ bị tấn công bởi các chiến thuật Mũ đen.

Florida năm 2003

Điều này đánh dấu bản cập nhật thuật toán lớn đầu tiên của Google, được thiết kế để lọc ra các trang web có số lượng lớn các liên kết kém chất lượng.

Họ đã phát hành nó vào tháng 11, và nó đã gây ra một biến động lớn đối với nhiều trang web, đúng vào cao điểm của mùa mua sắm Giáng sinh. Thật không may, nhiều trang web chất lượng đã được dán nhãn không chính xác, gây thiệt hại đáng kể cho các doanh nghiệp nhỏ. Tuy nhiên, việc giới thiệu phân tích liên kết đã giúp định hình quỹ đạo của SEO.

Xếp hạng tin cậy 2004

Thuật toán TrustRank đã vượt xa nền tảng của Florida như một cách để lọc ra các kỹ thuật SPAM và Mũ đen khỏi các kết quả của công cụ tìm kiếm khác. Thuật toán này giúp xác định mức độ đáng tin cậy của các miền để người dùng nhận được kết quả chất lượng.

Caffein Google 2010

Thuật toán này đã mang lại cho kết quả tìm kiếm của Google một luồng năng lượng tốt, vì khả năng lập chỉ mục các bài báo tăng lên và kết quả tìm kiếm có thể ưu tiên nội dung mới hơn.

Gấu trúc Google 2011

Google Panda được thiết kế để hướng mọi người đến các trang web chất lượng cao hơn, chẳng hạn như các tổ chức tin tức và giảm thiểu tác động của trang trại nội dung với các bài báo được viết sơ sài, được trích dẫn kém.

Google Freshness 2011

Một số trang web, giống như một công thức nấu ăn ngon, có thể tồn tại mãi với thời gian, nhưng phần lớn cần một số cập nhật khá thường xuyên. Thuật toán Google Freshness thực hiện chính xác những gì bạn mong đợi; nó ưu tiên nội dung mới, phù hợp và là một cải tiến đối với Caffeine đã phát hành trước đó.

Chim cánh cụt Google 2012

Giống như Panda, Google Penguin đã thực hiện một cú đánh khác vào các trang web spam, cố gắng loại bỏ nội dung bằng các kỹ thuật lén lút để tăng thứ hạng của chúng. Vì vậy, các trang web spam sẽ thiết lập các trang có nhiều liên kết bên ngoài liên kết với chúng để nâng cao thẩm quyền tên miền và vị trí của chúng trong kết quả tìm kiếm.

Chim ruồi của Google 2013

Thuật toán mạnh mẽ này đã mang đến một bước chuyển đổi lớn sang việc ưu tiên ngôn ngữ tự nhiên trong các truy vấn tìm kiếm. Thay vì đóng gói từ khóa và những nỗ lực không tự nhiên để phù hợp với tất cả các từ cần thiết cho một bài viết, Hummingbird ưu tiên ngôn ngữ tự nhiên. Sự thay đổi lớn này thể hiện một quỹ đạo mới và đặt nền móng cho những cải tiến trong tương lai của trí tuệ nhân tạo và xử lý ngôn ngữ tự nhiên.

2015 Google Mobilegeddon

Bản cập nhật này cung cấp một sự thúc đẩy lớn cho các trang web được tối ưu hóa cho thiết bị di động. Vì vậy, thay vì các giao diện rườm rà có thể trông ổn trên máy tính để bàn, việc tối ưu hóa thiết bị di động được cải thiện đã tạo ra trải nghiệm người dùng tốt hơn nhiều. Mobilegeddon và việc ưu tiên các trang web dành cho thiết bị di động đã giúp xúc tác cho sự thay đổi này. Tìm kiếm trên thiết bị di động đã tăng từ khoảng 20% vào năm 2013 lên hơn 60% vào năm 2021.

Bộ não xếp hạng Google 2015

Thuật toán quan trọng này, theo một cách nào đó, là một phần mở rộng của Google Hummingbird, đã mang lại sự rõ ràng hơn cho dữ liệu phi cấu trúc. Vì vậy, công việc chính của nó là hiểu những gì bạn đang tìm kiếm, ngay cả khi bạn không sử dụng bất kỳ “dấu ngoặc kép” nào xung quanh truy vấn của mình.

Ví dụ: nếu bạn nhập John Smith, nó sẽ không tìm kiếm tất cả John và tất cả Smith và xem chúng trùng nhau ở đâu; nó tìm kiếm "John Smith's" duy nhất. Nó cũng là một khối xây dựng quan trọng trong tầm quan trọng của xử lý ngôn ngữ tự nhiên và tác động của nó đối với tìm kiếm, cũng như tìm kiếm địa phương.

Khả năng của Google 2016

Google có bao giờ hỏi vị trí của bạn khi bạn đang tìm kiếm không? Google Possum đã mở đường cho các kết quả địa phương. Bản cập nhật thuật toán này đã cung cấp những thay đổi quan trọng cho SEO địa phương và cung cấp cho các doanh nghiệp địa phương một cách để kết nối với khán giả của họ. Vì vậy, nếu bạn tra cứu "gà rán ngon nhất", có thể bạn sẽ không thấy kết quả từ một tìm kiếm chung về tất cả các địa điểm bán gà trên thế giới. Thay vào đó, bạn sẽ thấy các địa điểm pizza tùy chỉnh từ khu vực địa phương của mình.

2017 Google Fred

Nếu trang web của bạn đã từng dựa vào các chiến thuật SEO mũ đen, thì có lẽ bạn đã cảm thấy sa sút sau khi Google triển khai Fred. Thuật toán này tiếp tục tìm cách trừng phạt các trang web kém chất lượng với quá nhiều quảng cáo và ít nội dung chất lượng hơn.

Google Y tế 2018

Bất kỳ ai đã từng hỏi bác sĩ Google câu trả lời cho các câu hỏi y tế khác nhau đều biết tầm quan trọng của việc có các nguồn y tế đáng tin cậy trong kết quả tìm kiếm của bạn. Thuật toán này giúp ưu tiên các trang web có cơ quan y tế, như Phòng khám Cleveland hoặc Phòng khám Mayo, hơn các trang web khác không có cơ quan y tế.

2019 Google BERT

Thuật toán mạnh mẽ này được cải thiện dựa trên nền tảng của Hummingbird và ưu tiên mục đích tìm kiếm cũng như từ khóa dạng dài. BERT đã cải thiện chất lượng tìm kiếm và ưu tiên mức độ liên quan.

Lịch sử của SEO ảnh hưởng đến tương lai của SEO như thế nào?

Quá trình chuyên môn hóa cao thường đòi hỏi một nhóm chuyên gia và các bộ dữ liệu và mô hình phức tạp có thể khác xa so với việc nhồi nhét từ khóa và chia sẻ liên kết đơn giản hơn trong những thập kỷ trước. Nhưng cốt lõi của chiến lược SEO vẫn không đổi trong suốt.

Rất đơn giản, các công cụ tìm kiếm muốn cung cấp cho người đọc câu trả lời tốt nhất có thể cho các truy vấn tìm kiếm của họ. Các công ty cũng muốn trở thành chuyên gia cung cấp cho những người đang tìm kiếm kết quả mong muốn nhất của họ—vì vậy chất lượng nội dung rất quan trọng. Khi công nghệ máy học và trí tuệ nhân tạo tiếp tục phát triển, chúng ta sẽ thấy các kết quả tìm kiếm ngày càng chuyên biệt hơn sử dụng quá trình xử lý ngôn ngữ tự nhiên để cung cấp kết quả tìm kiếm tốt hơn và phù hợp hơn.

Tối ưu hóa nội dung cho SEO

Làm cách nào để tối ưu SEO cho nội dung?

Google tiếp tục tinh chỉnh các thuật toán của mình, thường cung cấp các bản cập nhật thuật toán lớn hai lần một năm. Một số nguyên tắc khá rõ ràng, chẳng hạn như ưu tiên các bài viết theo E-A-T (chuyên môn, thẩm quyền và độ tin cậy). Nhưng ngay cả khi bạn đang làm mọi thứ theo các nguyên tắc mới nhất, đôi khi bạn có thể thấy số liệu phân tích của mình sụt giảm không mong muốn.

Nếu bạn nhận thấy nội dung của mình dường như bị mất lưu lượng truy cập mà không có lý do hợp lý nào, đừng hoảng sợ! Có thể là do bản cập nhật cốt lõi mới của Google. Bạn có thể cần chỉnh sửa một số thứ, nhưng nếu nội dung của bạn được viết tốt, trang web của bạn có kỹ thuật ổn định và bạn trả lời các câu hỏi mà mọi người đang hỏi, thì lưu lượng truy cập không phải trả tiền của bạn sẽ quay trở lại hoặc thậm chí cải thiện trong lần cập nhật tiếp theo.

Vì lý do này, bạn phải giữ kết quả lâu dài trong tầm nhìn. Đôi khi, bạn sẽ thấy những chiến thắng nhanh chóng, nhưng hiệu suất hàng năm thường là số liệu tìm kiếm chính xác hơn số liệu hàng tháng.

Những biến động thuật toán này là một trong những lý do khiến các công ty như rellify trở nên quan trọng. Máy học của họ sử dụng dữ liệu dành riêng cho ngành, vì vậy họ chỉ đánh giá dữ liệu liên quan đến công ty và ngành của bạn.

Thêm vào đó, đội ngũ chuyên gia của họ kết hợp những gì tốt nhất giữa con người và máy học, mang đến những hiểu biết có giá trị về ngành. Vì vậy, bất kể chương tiếp theo của SEO là gì, bạn có thể tự tin rằng những nỗ lực tiếp thị nội dung của mình sẽ mang lại kết quả tốt. Hãy chắc chắn để tiếp cận để tìm hiểu thêm.

Để lại Bình Luận