השאלה האחרונה שהופנתה למאט קאטס, השגריר הבלתי רשמי של גוגל לענייני SEO, מגיע מקונל פרדהן מהודו והיא מתייחסת לנושא שמעסיק מקדמי אתרים רבים :
עכביש הסריקה של גוגל סורק אתר A בכל שעה ואתר B בכל יום. אתר B מפרסם מאמר חדש, אתר A מעתיק אותו ומשנה את זמן הפרסום המוצג. אתר A נסרק על ידי גוגלבוט (עכביש הסריקה של גוגל).
איזה תוכן נחשב לתוכן מקורי בעיני גוגל וידורג גבוה יותר בתוצאות החיפוש ? אם זה אתר A, איך זה יכול להיות הוגן כלפי אתר B ?
מאט אומר שבכל רגע נתון גוגל מבצעת סריקה רק של חלק מהאתרים ברשת, למרות שיש לה את היכולות לבצע סריקה של כל רשת האינטרנט היא לא עושה זאת מחשש כי הרשת תקרוס ( לפי דעתי, אחד הנתונים המעניינים מהסרטון הזה.).
כרגע גוגל נותנים עדיפות לאתרים בעלי PageRank גבוה, לאתרים בעלי חשיבות רבה בעיניהם או לאתרים בעלי עמודים רבים (כנראה, כתוצאה מרמת עדכונים גבוה). בנוסף, גוגל מאנדקסים מהר יותר מאמרים שקושרו מטוויטר, כך שלאתרים שנסרקים בתדירות נמוכה, זה יכול להיות פתרון יחסית טוב.
באופן מפתיע או שלא (זה קורה היום בישראל במספר מקרים בהם..) תלוי את מי שואלים. מאט טוען שגוגל מנסה לפענח את מקור המאמר, אבל בהחלט יתכן שהסיטואציה שתוארה בשאלה אכן יכולה להתרחש במציאות. במידה וזה קורה, הוא ממליץ להגיש בקשת DMCA ובנוסף למלא דו"ח ספאם בגוגל.
בנוסף, מאט מציין שגוגל החלה לערוך ניסויים בתגיות חדשות במערכת גוגל חדשות אשר מיועדים לעזור לגוגל להבין מיהו מקור המאמר ולפי מידע זה לדרג אותו בתוצאות החיפוש.