Penguin 3.0 Update có sức mạnh như thế nào với SEO?

Thảo luận trong 'Google' bắt đầu bởi vnseosem, 6/11/14.

Khóa đào tạo Khởi nghiệp kinh doanh nhỏ trên internet
Bạn đang tham gia thảo luận tại Diễn Đàn SEO uy tín nhất Việt Nam VNSEOSEM.COM

Đã xem: 252

  1. vnseosem Quản Trị Viên

    Đôi khi trong tuần trước, bản cập nhật Penguin đầu tiên trong hơn một năm bắt đầu tung ra (Penguin 2.1 thành công hôm 4 tháng 10 năm 2013). Sau một năm, cảm xúc khá cao, và nhiều kỳ vọng cao hơn. Vì vậy, tự nhiên, mọi người bối rối khi MozCast tiết lộ các dữ liệu sau:

    Thanh màu tím là thứ sáu ngày 17 tháng 10, ngày mà Google chính thức cho biết Penguin 3.0 được tung ra. Hãy nhớ rằng MozCast được điều chỉnh tới nhiệt độ trung bình khoảng 70 ° F. Nhiệt độ hôm thứ Sáu đã hơi trên mức trung bình (73,6 °), nhưng không có gì trong vài ngày qua cho thấy một sự thay đổi về quy mô của bản cập nhật Penguin gốc. Ví dụ, Penguin 1.0 đo được một sức nóng lên tới 93 ° F.
    [​IMG]

    Vậy thì điều gì đã xảy ra? Tôi sẽ cố gắng trả lời câu hỏi đó một cách chính xác nhất có thể. Tôi sẽ bắt đầu với những nét rộng, và sơn các chi tiết mịn hơn khi tôi đi, để bất cứ ai có quan tâm đến Penguin có thể từ bỏ khi họ đã nhìn thấy đầy đủ hình ảnh.


    Một cái tên có ý nghĩa như thế nào?

    Chúng tôi nghĩ rằng việc đặt tên cũng rất quan trọng, có sự ảnh hưởng lớn. Tên gọi mang lại cho bản cập nhật một sức mạnh nhất định nào đó. Khi Google hoặc cộng đồng đạt tên một bản cập nhật thuật toán, chúng tôi thực sự cho rằng bản cập nhật đó là một bản cập nhật lớn. Những gì tôi đã nhìn thấy trên các bản cập nhật, chẳng hạn như bản số 27 tên Panda lặp đi lặp lại cho đến nay, nó đơn giản không phải là trường hợp này. Panda và Penguin là sự phân cấp, không phải là thiết bị chỉ báo về phạm vi. Một số bản cập nhật lớn, và một số bản thì nhỏ - những bản cập nhật có chung một tên có chung một ý thức hệ phổ biến và mã cơ bản, nhưng tất nhiên không phải là giống nhau tất cả mọi thứ.


    Các phiên bản thậm chí tạo nên những điều phức tạp hơn nữa - nếu Barry Schwartz hoặc Danny Sullivan đặt tên các bản cập nhật mới nhất "3.0", nó chủ yếu là một sự phản ánh mà chúng tôi đã chờ đợi một năm và tất cả chúng tôi đều cho rằng nó là một bản cập nhật lớn. Điều đó không nhất thiết có nghĩa rằng đây là một phiên bản hoàn toàn mới của thuật toán. Khi một công ty phần mềm tạo ra một phiên bản mới, họ biết chính xác những gì thay đổi. Khi Google làm mới Panda hay Penguin, chúng ta chỉ có thể đoán mã thay đổi như thế nào. Nói chung, chúng ta cố hết sức ngoại trừ việc chúng ta không nên chỉ dựa vào tên gọi để suy đoán.


    Có phải Penguin nhỏ bé thôi ?

    Một vấn đề khác với Penguin 3.0 chính là chúng tôi là kỳ vọng quá cao vào nó. Chúng tôi cho rằng, sau khi chờ đợi hơn một năm, bản cập nhật mới nhất của Penguin sẽ ảnh hưởng lớn và sẽ bao gồm cả một bản cập nhật làm mới dữ liệu và một bản cập nhật thuật toán. Dù vậy đó cũng chỉ là một giả định. Tôi tin chắc rằng Penguin 1.0 đã có một mức độ rộng lớn hơn nhiều, và có thể nhiều ảnh hưởng tiêu cực hơn, tác động trên SERPs hơn so với Googlle đã nghĩ, và tôi nghĩ rằng họ đã thực sự đấu tranh để sửa chữa và cập nhật thuật toán Penguin có hiệu quả.

    Gạt niềm tin của tôi sang một bên, Pierre Far đã cố gắng để làm rõ tác động Penguin 3.0 vào ngày 21 tháng 10, cho rằng nó bị ảnh hưởng ít hơn 1% truy vấn tiếng Mỹ / Anh, và rằng đó là một sự “ triển khai chậm, triển khai trên toàn thế giới". Giải thích định nghĩa của "phần trăm của các truy vấn" của Google thì khó khăn, nhưng Penguin ban đầu (1.0) được ghi lại bởi Google ảnh hưởng đến 3,1% truy vấn tiếng Anh/Mỹ. Pierre cũng ám chỉ rằng Penguin 3.0 là một nguồn dữ liệu "làm mới", và có thể không phải là một sự thay đổi thuật toán, nhưng, giống như mọi khi, ý nghĩa chính xác vẫn là một ẩn số cho mọi người.


    Vì vậy, có thể nói rằng đồ thị bên trên là chính xác, và một trong hai tác động là tương đối nhỏ, hoặc tác động đã được trải ra trong hiều ngày (chúng ta sẽ thảo luận sau). Tất nhiên, nhiều người và các cơ quan có uy tín đang báo cáo Penguin thành công và phục hồi, do đó đặt ra câu hỏi - tại sao dữ liệu của họ không phù hợp với dữ liệu của chúng ta?


    Các dữ liệu quá lộn xộn?

    MozCast đã cho tôi thấy một cách rõ ràng đáng báo động về việc kết quả tìm kiếm được có thể lộn xộn như thế nào, và chúng có thể dàn đều như thế nào khi không có những cập nhật thuật toán lớn. Tách tín hiệu từ âm tạp có thể là việc cực kỳ khó khăn - nhiều SERPs thay đổi mỗi ngày, đôi khi nhiều lần mỗi ngày.

    Hơn nữa, chúng ta thấy bản cập nhật thuật toán khiến một số các trang web bị ảnh hưởng nặng nề, nhưng tác động trên một tập dữ liệu lớn hơn thì khó để phát hiện. Hãy xem xét hai tình huống giả định sau đây:


    Các điểm dữ liệu bên trái có nhiệt độ trung bình 70 °, với một điểm dữ liệu tăng vọt tới 110 °. Các điểm dữ liệu bên phải có nhiệt độ trung bình 80 °, và tất cả chúng ở mức khác nhau từ khoảng 75-85 °. Vì vậy, đó là một bản cập nhật? Một công cụ như MozCast nhìn vào các dữ liệu tổng hợp, và có thể nói đó là dữ liệu bên phải. Tính trung bình, nhiệt độ nóng hơn. Dù vậy, có thể nói rằng đồ thị bên trái đại diện cho một bản cập nhật chính thống, nó chỉ ảnh hưởng một vài trang web, nhưng lại gây ra các ảnh hưởng nặng.

    Sự thật vẫn là sự thật. Nếu bạn là thanh màu đỏ bên trái, sau đó thay đổi đối với bạn thì thực tế hơn bất kỳ số nào tôi có thể đặt trên một đồ thị. Nếu tỷ lệ thất nghiệp giảm từ 6% xuống 5%, thực tế vẫn là bạn có thể có một công việc hoặc bạn là người thất nghiệp. Con số trung bình chỉ hữu ích cho sự hiểu biết bức tranh lớn, nhưng chúng bị phá vỡ khi bạn cố gắng áp dụng chúng vào bất kỳ một trường hợp riêng lẻ nào đó.

    Mục đích của một công cụ như MozCast, theo ý kiến của tôi, là để trả lời câu hỏi "Chỉ là tôi thôi?" Chúng tôi không cố gắng để cho bạn biết nếu bạn bị ảnh hưởng bởi một bản cập nhật - chúng tôi đang cố gắng để giúp bạn xác định xem liệu khi bạn đang bị ảnh hưởng hay bạn là trường hợp ngoại lệ hay cũng thuộc quy luật đó.


    Có phải việc triển khai thêm tạp âm diễn ra chậm?

    MozCast được xây dựng trong một chu kỳ 24 giờ - nó được thiết kế để phát hiện những thay đổi diễn ra hàng ngày. Điều gì xảy ra nếu một bản cập nhật thuật toán được đưa ra trong một vài ngày hoặc thậm chí một tuần? Rất có thể rằng một sự thay đổi tương đối lớn có thể truyền đi trên phạm vi đủ nhỏ để có thể phát hiện? Có, nó chắc chắn có thể, và chúng tôi tin rằng Google đang làm việc này thường xuyên hơn. Công bằng mà nói, tôi không tin rằng mục tiêu chính của họ là để xáo trộn những bản cập nhật - Tôi nghi ngờ rằng việc giới thiệu các bản cập nhật dần dần an toàn hơn và cho thêm thời gian để giải quyết vấn đề nếu và khi có trục trặc xảy ra.

    Trong khi MozCast xác định lượng tăng trong vòng 24 giờ, thực tế là không có gì về sự hạn chế của hệ thống đến khoảng thời gian đó. Chúng tôi có thể dễ dàng nhìn vào tốc độ thay đổi qua một cửa sổ nhiều ngày. Trước tiên, hãy kéo dài đồ thị nhiệt độ MozCast từ đầu của bài viết này ra đến 60 ngày:

    Ví dụ, nhiệt độ trung bình cho khoảng thời gian này là 68,5 °. Xin lưu ý rằng tôi đã tạo ra một trục nhiệt độ từ 50-100 ° - điều này sẽ giúp so sánh những cặp đồ thị tiếp theo. Bây giờ, hãy đo nhiệt độ "hàng ngày" một lần nữa, nhưng lần này chúng ta sẽ làm điều đó trong khoảng thời gian 48 giờ (2 ngày). Đường màu đỏ cho thấy thông lượng 48 giờ:

    Điều quan trọng cần lưu ý là thông lượng 48 giờ vốn dĩ cao hơn so với thông lượng 24 giờ - trung bình của thông lượng 48 giờ cho 60 ngày là 80,3 °. Dù vậy, nói chung, bạn sẽ vẫn thấy rằng các mô hình của thông lượng là tương tự nhau. Một cửa sổ dài hơn còn có xu hướng tạo ra một hiệu ứng làm bằng phẳng, nhưng các đỉnh cao nhất và điểm lõm là 2 đường tương tự nhau. Vì vậy, chúng ta hãy nhìn vào thông lượng 72 giờ (3 ngày):

    Thông lượng trung bình 72 giờ là 87,7 ° trong vòng 60 ngày. Một lần nữa, ngoại trừ một số điểm bằng phẳng, không có một sự khác biệt lớn giữa các điểm cao nhất và điểm lõm-ít nhất là không có gì khác biệt rõ ràng trong vòng 60 ngày được xác định trong tuần qua. Vì vậy, hãy nhìn vào một tính toán đầy đủ thông lượng 7 ngày:


    Tôi đã phải tăng giá trị của trục tung lên đến 120 °. Trong khi các điểm cao nhất và điểm thấp nhất bắt đầu có 1 chút điều chình thời gian ở đây, chúng tôi vẫn không thấy bất kỳ sự gia tăng mạnh nào trong giả định lịch trình Penguin 3,0.

    Có thể Penguin 3.0 được đưa ra trong vài tuần hoặc một tháng? Về mặt lý thuyết, nó có thể, nhưng theo những gì chúng tôi biết về các bản cập nhật của google thì tôi nghĩ rằng điều đó là không thể. Thực tế, điều này sẽ không gây ra bất cứ điều gì nhưng một bản cập nhật lớn rất khó để phát hiện. Nhiều thứ có thể thay đổi trong vòng 30 ngày, và rằng tốc độ biến đổi cơ bản, cộng với bất cứ bản cập nhật nào nhỏ hơn của Google được tung ra, có lẽ sẽ khiến Penguin bị ảnh hưởng.

    Nếu từ khóa của chúng tôi sai thì sao?

    Có thể chúng ta không nhìn thấy Penguin hoạt động vì lỗi lấy mẫu? Nói cách khác, nó xảy ra nếu chúng ta theo dõi các từ khóa sai? Đây là một câu hỏi bất ngờ và khó để trả lời, bởi vì chúng ta không biết được hết tất cả hoạt động tìm kiếm sẽ như thế nào. Chúng ta biết con người trông như thế nào nhưng chúng ta không thể yêu cầu bảy tỷ người dân tham gia vào cuộc khảo sát hoặc tham gia vào thí nghiệm của chúng ta, nhưng ít ra chúng tôi cũng biết về nhóm mà chúng tôi đang khảo sát. Với các truy vấn, chỉ có Google có dữ liệu đó.

    Các MozCast ban đầu đã được công khai đưa ra với một tập cố định gồm 1.000 từ khóa mẫu từ dữ liệu của Google AdWords. Chúng tôi cho rằng một bộ dữ liệu cố định sẽ giúp giảm sự thay đổi theo ngày (không giống như sử dụng từ khoá khách hàng, có thể được thêm vào và xóa đi), và chúng tôi đã cố gắng để chọn một loạt các cụm từ theo độ lớn và thời gian. Cuối cùng, bộ dữ liệu hơi có một chút xu hướng về các từ thương mại và có xu hướng chứa nhiều hơn từ khóa đầu và từ khóa giữa hơn là từ khóa dài.

    Kể từ đó, MozCast đã phát triển với hơn 1.000 từ khóa khác nhau, chia thành hai bộ phân tích 1K và 10K từ khóa. Bộ 10K được phân chia già nửa, với 5K từ khóa nhắm mục tiêu vào Mỹ (được định vị lại) và 5K nhắm mục tiêu đến 5 thành phố. Trong khi sức hút vẫn thường xuất phát từ bộ 1K, chúng tôi sử dụng các bộ 10K để cấp nguồn cho Feature Graph và nó như công cụ kiểm tra hợp nhất và công cụ phân tích. Vì vậy, bất cứ lúc nào, chúng tôi cũng có nhiều mẫu để so sánh.

    Vậy thì bộ dữ liệu 10K thiết lập nhưu thế nào (trên thực tế, 5K từ khóa được định vị lại, kể từ khi tìm kiếm tại địa phương có xu hướng có thông lượng nhiều hơn) so với bộ dữ liệu 1K? Dưới đây là đồ thị 60 ngày:

    Trong khi vẫn có một số khác biệt trong hai bộ dữ liệu, bạn có thể thấy rằng họ thường di chuyển cùng nhau, giống nhau gần như toàn bộ các điểm cao nhất và điểm thấp nhất và thay đổi trong khoảng phạm vi tương tự. Không có bộ nào cho thấy dấu hiệu rõ ràng của thông lượng quy mô lớn trong biểu đồ thời gian Penguin 3.0.
    [​IMG]

    Đương nhiên, hiện tại có những SEO và các tổ chức có khả năng theo dõi khách hàng bị ảnh hưởng bởi Penguin (những người có thể tìm kiếm sự giúp đỡ của SEO). Ngay cả các công cụ phục vị cho việc SEO có một mức độ nhất định tự lựa chọn - người có nhu cầu SEO và người có vấn đề có thể sử dụng chúng và lựa chọn từ khóa vấn đề để theo dõi. Vì vậy, có thể nói việc tập hợp dữ liệu của người khác có thể cho thấy một tác động Penguin rõ rệt hơn. Họ sai hay là chúng tôi sai? Tôi nghĩ rằng đó chỉ là một trong số nhiều quan điểm. Chúng tôi cố gắng hết sức để cho các mẫu thử nghiệm của chúng tôi được tự nhiên, nhưng nó vẫn là một mẫu thử và nó chỉ là một đại diện nhỏ và không hoàn hảo trong thế giới của Google.


    Có phải Penguin 3.0 đã nhắm mục tiêu trở thành một phân khúc?


    Trong đó mỗi bản cập nhật về các thuật toán chỉ nhắm mục tiêu vào các trang web, các trang, hoặc truy vấn, và sau đó tất nhiên là tất cả các bản cập nhật là một bản cập nhật chuyên về lĩnh vực nào đó . Câu hỏi duy nhất chúng ta có thể đặt ra cho dữ liệu là liệu Penguin 3,0 có nhắm mục tiêu vào một ngành công nghiệp thể loại cụ thể / ngành công nghiệp dọc. Các bộ dữ liệu 10K MozCast được chia đều thành 20 loại ngành công nghiệp. Dưới đây là các dữ liệu từ 17 tháng 10, các dữ liệu giả định về việc triển khai chính:




    Hãy nhớ rằng, việc chia thành 20 loại ngành công nghiệp, dữ liệu ngành cho bất kỳ ngày nào là một bộ dữ liệu khá nhỏ. Ngoài ra, cũng khác đi một một chút so với tổng thể. Tất cả 20 phân loại đã được ghi lại nhiệt độ từ 61,7-78,2 °. Các phân loại "Internet & Viễn thông" thể loại, ở thuộc top có nhiều lượt đọc trong ngày, thường chạy ở trên mức trung bình một chút, vì vậy rất khó khăn để đánh giá tập dữ liệu nhỏ, nếu nhiệt độ này chính xác. Vì vậy cũng không thể nói rằng tác động đó ảnh hưởng đến một số ngành công nghiệp nặng hơn những ngành khác.


    Điều gì sẽ xảy ra nếu số liệu bị sai?


    Nếu mẫu khảo sát bị thiếu một cách cơ bản, việc đo lường dữ liệu có thể sẽ không quá quan trọng nữa nhưng chúng ta hãy giả sử rằng ít nhất mẫu của chúng ta là một cửa sổ hợp lý vào thế giới của Google. Ngay cả với một mẫu đại diện cũng có rất nhiều, nhiều cách để đo thông lượng, và tất cả đều có ưu và nhược điểm.


    MozCast vẫn hoạt động trên một tập hợp khoảng cách tương đối đơn giản, chủ yếu nhìn vào top 10 thứ hạng hàng đầu tiên xem nó biến đổi thế nào so với ngày hôm trước. Tập hợp khoảng cách này được xác định theo hướng vị trí và bất khả tri, có nghĩa rằng một sự di chuyển từ vị trí số 1 đến vị trí số 3 giống như một sự di chuyển từ số 9 xuống số 7 (đều cách nhau 2 vị trí). Bất kỳ từ khóa nào tụt khỏi bảng xếp hạng 10 (bất kể vị trí nào), và bất kỳ từ khóa nào có thể có được một sự thay đổi từ 0-100. Tập hợp này, tôi gọi là "Delta100", là khoảng tuyến tính chuyển đổi bằng cách lấy căn bậc hai, kết quả là một số liệu được gọi là "Delta10". Sau đó giá trị được nhân với một hằng số dựa trên nhiệt độ trung bình 70 °. Các phép biến đổi liên quan đến toán học nhiều hơn, nhưng các số liệu quan trọng lại khá đơn giản.


    Sự đơn giản này có thể khiến mọi người nghĩ rằng chúng tôi đã không phát triển cách tiếp cận tinh vi hơn. Thực tế là chúng tôi đã cố thử rất nhiều số liệu, và chúng có xu hướng tạo ra tất cả các mô hình nhiệt độ tương tự nhau theo thời gian. Vì vậy, cuối cùng, chúng tôi đã giữ nó đơn giản.


    Dù vậy, vì lợi ích của phân tích này mà tôi sẽ thâm nhập vào một vài những số liệu khác. Một số liệu mà chúng tôi tính toán trên bộ từ khóa 10K sử dụng một hệ thống tính điểm dựa trên một đường cong CTR đơn giản. Một sự thay đổi từ # 1 đến # 3 có một tác động cao hơn nhiều so với một sự thay đổi thấp hơn trong top 10, và tương tự, sự giảm từ đỉnh của một trang có một tác động cao hơn so với mức giảm từ phía dưới. Số liệu này (tôi gọi là "deltax") tiến một bước xa hơn, mặc dù ...


    Cho đến nay, tất cả các số liệu của chúng tôi được dựa trên việc lấy nhiệt độ trung bình (trung bình) nhiệt độ trên toàn bộ các SERPs với câu hỏi (lựa chọn 1K hay 10K). Vấn đề là, tất cả chúng ta chỉ quen với chúng ở mức trung bình, chúng thường dựa vào một số giả định, bao gồm cả dữ liệu được phát hành gần như bình thường.


    Thông lượng quan trọng, vì thiếu một từ tốt hơn nên không được phân phối từ xa như bình thường. Số liệu Delta100 chính của chúng tôi giảm mạnh trên một đường số mũ. Đây là dữ liệu 1K của ngày 21 tháng 10:

    Các dữ liệu 10K trông bằng phẳng hơn, và các dữ liệu delta X vẫn không bằng phẳng bằng nhưng về hình dạng là như nhau. Một vài SERPs / từ khóa cho thông lượng lớn, chúng nhanh chóng rơi vào thông lượng tầm trung, và sau đó là ở thông lượng tất cả các cấp. Vậy, làm thế nào để có được một thông lượng trung bình? Đơn giản, chúng tôi ăn gian. Chúng tôi đã thử nghiệm một số biến đổi và thấy rằng căn bậc hai của giá trị này đã khiến việc phân phối giống với bình thường hơn. Đây là bảng giá trị (Delta10):

    Nếu bạn có bất kỳ ý tưởng nào về việc phân phối bình thường nên như thế nào, bạn chắc hẳn đang rất nóng lòng. Như tôi đã nói, đó là một sự gian lận. Đó là cách gian lận tuyệt vời nhất chúng tôi đã tìm thấy mà không cần dùng đến môn toán học khó nhằn hoặc không cần xác định toàn bộ ý nghĩa dựa trên một hàm mũ. Cách gain lận này được dựa trên một phương pháp đã được thiết lập - thuật toán biến đổi Box-Cox - nhưng phải thừa nhận là kết quả không quá khả quan. Chúng tôi sử dụng nó bởi vì tất cả các thứ khác đều bằng nhau, nó hoạt động cũng tương tự như các giải pháp phức tạp hơn khác. Căn bậc hai cũng dễ dàng làm giảm dữ liệu của chúng tôi với trong dãy từ 0-10, khá phù hợp với một SERP 10 kết quả (chúng ta không nói về 7 kết quả SERPs ... Tôi NÓI LÀ TÔI KHÔNG MUỐN NÓI VỀ NÓ!).

    Thế còn về phương sai? Chúng ta có thể biết độ lệch chuẩn thay đổi thế nào từ ngày này qua ngày khác để thay thế? Nó hơi lạ một chút, bởi vì chúng ta đang chủ yếu tìm kiếm sự thay đổi của phương sai. Ngoài ra, lưu ý các đường cong chuyển đổi ở trên, độ lệch chuẩn là khá đáng tin cậy theo phương pháp luận của chúng tôi - phương sai trong bất kỳ ngày nào đều rất cao. Tuy nhiên, chúng ta hãy nhìn vào sự chuyển đổi với quy mô tương tự như nhiệt độ trung bình / trung bình (trong bộ dữ liệu 1K):


    Trong khi phương sai chắc chắn di chuyển dọc theo một mô hình khác chứ không phải theo kế hoạch, nó di chuyển trong một phạm vi nhỏ hơn nhiều. Mô hình này dường như không phù hợp với mô hình của bản cập nhật đã biết. Về lý thuyết, tôi nghĩ rằng theo dõi sự biến động có thể rất thú vị. Trong thực tế, chúng ta cần đo phương sai dựa trên một hàm số mũ, không phải là dữ liệu đã được chuyển đổi. Thật không may, một thước đo như vậy thường rất đắt tiền và sẽ rất

    Cuối cùng chúng ta phải sử dụng số liệu thống kê trung bình phải không? Khi tôi thử nghiệm với phương pháp tiếp cận khác nhau cho delta X, tôi đã cố gắng sử dụng một phương pháp tiếp cận dựa trên trung bình. Hóa ra thông lượng trung bình cho bất kỳ ngày nào thỉnh thoảng sẽ là không, do đó nó không hoạt động tốt, nhưng chẳng có lí do nào- ít nhất là về mặt lý thuyết thì chỉ số trung bình phải được đo ở mức phân vi thứ 50.

    Đây là nơi mà có lẽ bạn sẽ nghĩ rằng "Không, đó là * chính xác* những gì đường trung bình phải đo - đó là định nghĩa về trung bình!" Ok, bạn hiểu tôi, nhưng định nghĩa này chỉ có vấn đề nếu bạn đang đo xu hướng trung tâm. Chúng tôi không thực sự quan tâm đến những giá trị trung bình là dành cho bất kỳ ngày nào. Những gì chúng tôi muốn là một số liệu cho phép chúng tôi phân biệt rõ nhất sự khác biệt giữa các ngày. Vì vậy, tôi đã thử nghiệm với việc đo một đường trung bình được sửa đổi ở phân vị 75 qua delta X số liệu phức tạp hơn.

    That probably didn’t make a lot of sense. Even in my head, it’s a bit fuzzy. So, let’s look at the full DeltaX data for October 21st:

    Điều đó có lẽ không có nhiều ý nghĩa gì lắm. Thậm chí trong đầu tôi, nó còn hơi mờ. Vì vậy, hãy cùng nhìn vào các dữ liệu deltaX đầy đủ của ngày 21 tháng 10:

    Có lẽ bây giờ bạn đã hiểu rõ vấn đề tôi gặp khó khăn là gì. Tất cả những số liệu tuyệt vời phức tạp đều trông giống như trung bình của các số liệu đơn giản. Một số các đỉnh thì cao hơn một chút và một số thì hơi cao, nhưng mô hình vẫn rất giống nhau. Vẫn chưa có dấu hiệu rõ ràng của sự tăng vọt của Penguin 3,0.

    Bạn vẫn còn ở đây?

    Lạy Chúa, tại sao? Tôi hoàn toàn nghiêm túc, mọi người đều có công ăn việc làm, hoặc ít nhất là một sở thích? Tôi hy vọng bây giờ bạn hiểu được sự phức tạp của công việc này. Chẳng có điều gì trong dữ liệu của chúng tôi cho thấy rằng Penguin 3.0 là một bản cập nhật lớn, nhưng dù sao dữ liệu của chúng tôi cũng chỉ là một cửa sổ trong cái thế giới rộng lớn. Nếu bạn bị ảnh hưởng bởi Penguin 3.0 (hoặc nếu bạn nhận được tin tốt lành và phục hồi) thì không có vấn đề gì cả, và nó không nên. MozCast là một điểm tham chiếu để sử dụng khi bạn đang cố gắng để tìm ra liệu toàn bộ thế giới đã cảm nhận được một trận động đất hay chưa hoặc liệu có sự xây dựng nào bên ngoài cửa sổ của bạn hay không.
     
    Đang tải...
    nam lim xanh

    Bình Luận Bằng Facebook

Chia sẻ trang này