ტექნიკური SEO
ვებსაიტის ტექნიკური SEO ოპტიმიზაცია ორიენტირებულია მოახდინოს ოპტიმიზირება საიტის ტექნიკური ასპექტების, რათა დააკმაყოფილოს საძიებო სისტემის მხრიდან დაყენებული ის ტექნიკური მოთხოვნილებები, რომელიც აუცილებელია საიტის რანკინგისთვის, პოზიციონირდეს მაღალ ადგილას GOOGLE-ის ძიების შედეგების პირველ გვერდზე.
რატომაა საიტის ტექნიკური SEO ოპტიმიზაცია მნიშვნელოვანი?
ვებსაიტის ტექნიკური SEO-ს უზრუნველყოფა არის ერთ-ერთი განმსაზღვრელი რანკინგ სიგნალი ვებგვერდებისთვის, განთავსდნენ მოწინავე პოზიციებზე SERP-ში. წინააღმდეგ შემთხვევაში, თუ საიტი ვერ უზრუნველყოფს ჰქონდეს გამართული ტექნიკური შემადგენელი ელემენტები, მისი პოზიციონირება მნიშვნელოვნად ჩამოქვეითდება.
რა თქმა უნდა, მნიშვნელოვანია საიტი იყოს ოპტიმიზირებული შესაბამისი KEYWORD-ებით, title tag-ით, meta description-ით, ჰქონდეს გამორჩეული და ღირებული კონტენტი სხვა კონკურენტებთან შედარებით.
მაგრამ თუ საიტი არ არის პოტენციური ვიზიტორისთვის და საძიებო სისტემისთვის ადვილად დასამუშავებელი, მისი ON-PAGE და Local SEO ძალისხმევებით შორს ვერ წავა. იგივე ეხება off-page SEO ოპტიმიზაციასაც.

ყველაზე საბაზისო და ფუნდამენტური ელემენტი ვებგვერდის ტექნიკური ოპტიმიზაციისა ესაა SEO სპეციალისტის მხრიდან უზრუნველყოფა, რომ საიტი იყოს მარტივად საპოვნელი, crawling-ებადი, დარენდერებადი და დასაინდექსირებადი საძიებო სისტემის ბოტების მხრიდან, რათა შემდგომში მიენიჭოს რანკინგი.
თუმცაღა, ვებსაიტის ტექნიკური SEO ბევრად უფრო ფართო სამუშაო პროცესს მოიცავს და ცდება იმ ტექნიკურ ასპექტებს, რასაც crawling-ის და ინდექსირების პროცესი მოიცავს. შემდეგ ნაწილში კი სწორედ ამ სამუშაო ასპექტებს გაეცნობი, რაზეც ორიენტირებულია ტექნიკური SEO.
ტექნიკური SEO ოპტიმიზაციის სამუშაო პროცესი
აღნიშნულ ნაწილში გაეცნობი ტექნიკური SEO-ს შემადგენელ ფუნდამენტურ ელემენტებს. გაიგებ თუ რატომაა ტექნიკური SEO ოპტიმიზაცია მნიშვნელოვანი საიტის პოზიციონირებისთვის SERP-ში.
ტექნიკური SEO ოპტიმიზაციის სამუშაო პროცესი საკმაოდ მრავალფეროვანია. დაწყებული ზემოთ ჩამოთვლილი სტრატეგიებიდან, დამთავრებული სრულყოფილი SEO აუდიტით. ახლა კი დეტალურად გაეცანი თუ რას მოიცავს ტექნიკური SEO-ს სამუშაო კამპანია:
- #1. საიტის არქიტექტურის ჩამოყალიბება და ოპტიმიზაცია
- #2. საიტის სისწრაფის ოპტიმიზაცია და შესაბამება CORE WEB VITAL-თან
- #3. საიტის ტექნიკური აუდიტი
- #4. 301 და 302 გადამისამართებების განხორციელება
- #5. XML საიტის რუკის გენერირება და მიბმა Google Search Console-თან
- #6. საჭიროების შემთხვევაში robots.txt ფაილის შექმნა და გვერდების crawling ტრაფიკის დამენეჯმენტება
- #7. საიტზე duplicate (დუპლიკატირებული) კონტენტის შემოწმება და აღმოფხვრა
- #8. საიტის ნავიგაციის გაუმჯობესება
- #9. გვერდების ინდექსირების პრობლემების აღმოფხვრა
- #10. შემოწმება ეგრეთწოდებული broken linking-ის, 404 error და 404 soft error გვერდების
- #11. JavaScript ტექნიკური SEO
- #12. meta tag-ების გამოყენება, როგორიცაა: canonical tag, noindex tag
- #13. hreflang-ების დაყენება ინტერნაციონალური ვებსაიტის განხორციელების შემთხვევაში
როგორც უკვე ნახე, ტექნიკური SEO არ შემოიფარგლება მხოლოდ ვებსაიტზე არსებული გვერდების crawling-ის, ინდექსირების და დარენდერების ოპტიმიზირებით. ახლა კი უკვე დროა გაეცნო თითოეულ მათგანს ცალ-ცალკე.
ტექნიკური SEO-ს საფუძვლები
ტექნიკური SEO ოპტიმიზაცია საკმაოდ მრავალფეროვან სამუშაო პროცესს მოიცავს და ორიენტირებულია დააკმაყოფილოს საძიებო სისტემის მიერ დაწესებული ტექნიკური მოთხოვნილებები. სწორედ ამ ნაწილში შეძლებ გაიგო დეტალურად, თუ რა სამუშაო პროცესს გაივლი ვებსაიტის ტექნიკური SEO ოპტიმიზაციის განხორციელებისას.
ვებსაიტის სტრუქტურის ჩამოყალიბება
საიტის სტრუქტურის ჩამოყალიბება ერთ-ერთი უმნიშვნელოვანესი ელემენტია, არა მარტო ტექნიკური SEO-ს, არამედ მთლიანი ვებსაიტის SEO ოპტიმიზაციის თვალსაზრისით. რადგან კარგად სტრუქტურირებული ვებსაიტი ოპტიმალურია შემდგომ განსახორციელებელი ON-PAGE SEO ოპტიმიზაციის, OFF-PAGE SEO ოპტიმიზაციის თუ ლოკალური SEO ოპტიმიზაციებისთვის.
საიტის სტრუქტურა განსაზღვრავს, თუ როგორ არის დაკავშირებული ვებსაიტზე არსებული გვერდები ერთმანეთთან. კარგად ორგანიზებული საიტის სტრუქტურა უზრუნველყოფს, რომ ვებსაიტზე არსებული გვერდები იქნება მარტივად აღმოჩენადი და crawling-ებადი საძიებო სისტემის ბოტების მხრიდან. კერძოდ, აღნიშნული სტრუქტურით შენ აირიდებ გქონდეს ეგრეთწოდებული:
ORPHAN გვერდები — ეს არის იგივე ობოლი გვერდები, რომლებსაც არ გააჩნია შიდა ბმული სხვა გვერდებთან მიმართებით და რთულად საპოვნელია, როგორც საძიებო სისტემის ბოტების მხრიდან, ასევე ვიზიტორებისგანაც.
DEEP გვერდები — ღრმა გვერდები არის ნათელი შემთხვევა ცუდად ჩამოყალიბებული საიტის სტრუქტურისა. როდესაც გვერდები ერთმანეთთან არანაირი ლოგიკური კავშირით არ არიან დაკავშირებული და შედეგად წარმოიქმნება ქაოტური გვერდების ურთიერთკავშირი. ღრმა გვერდი კი დაშორებულია მთავარ გვერდს რამდენიმე კლიკით, რაც რთულად საპოვნელს ხდის მას საძიებო სისტემის ბოტების მხრიდან.

კარგად სტრუქტურირებული საიტი საშუალებას მოგცემს გადაანაწილო PAGE ავტორიტეტულობა სხვა ნაკლებად პოპულარულ გვერდებზე, შესაბამისად გაზარდო შანსი მოხვდე მაღალი RANKING-ით SERP-ში.
ახლა კი გეტყვი, თუ რა ტიპის სტრუქტურა ითვლება ოპტიმიზირებულად და SEO მეგობრულად — ესაა ეგრეთწოდებული ბრტყელი საიტის სტრუქტურა, სადაც გვერდები ერთმანეთთან მაქსიმუმ 3-4 კლიკით არიან დაშორებულები, რაც საიტს ხდის მარტივად სანავიგაციოს, ამასთანავე მარტივად საპოვნელს ბოტების მხრიდან.
საიტის მარტივად საპოვნელად შეგიძლია გამოიყენო სხვადასხვა ონლაინ ხელსაწყოები, რომლებიც ჩაატარებენ შენი საიტის crawling-ს და მოგცემენ სრულყოფილ ხედვას ვებსაიტის არქიტექტურასთან დაკავშირებით.
რა არის XML საიტის რუკა?
საიტის XML რუკა არის ეგრეთწოდებული გეგმა შენი ვებსაიტის, რომელიც შეიცავს ყველა არსებულ და მნიშვნელოვან გვერდს, რომელიც არსებობს საიტზე. ის ეხმარება საძიებო სისტემებს იპოვონ და crawling-ი გაუკეთონ ვებგვერდზე არსებულ URL-ებს.
შესაბამისად, მისი გენერაცია არის ერთ-ერთი საუკეთესო SEO პრაქტიკა, რომელიც ხელს შეუწყობს შენს საიტზე არსებულ გვერდებს იყვნენ მარტივად აღმოჩენადი ბოტების მხრიდან.
შესაბამისად, XML საიტის რუკა კარგად ორგანიზებულ internal linking-თან ერთად შესანიშნავი წყაროა საძიებო ბოტებისთვის, ჰქონდეთ მიმართულება საიტზე არსებულ მნიშვნელოვან გვერდებთან დაკავშირებით.
იმ პრაქტიკებს, რომლებიც უნდა გამოიყენო XML რუკებთან დაკავშირებით: განათავსო ის URL-ები, რომლებიც მნიშვნელოვანია და გსურს იყოს ინდექსირებადი საძიებო სისტემის ბოტების მხრიდან.
ამასთანავე, არ განათავსო ის URL, რომელიც დაბლოკილია robots.txt-ით. წინააღმდეგ შემთხვევაში საძიებო სისტემის ბოტებს მისცემ ორ სხვადასხვა სიგნალს: პირველი — ეტყვი, რომ აღნიშნული URL შენთვის მნიშვნელოვანია, მაგრამ robots.txt-ით ის დაბლოკე.
XML რუკის გენერაცია შეგიძლია სხვადასხვა ონლაინ ხელსაწყოებით. თუ WordPress-ის CMS-ს იყენებ — Yoast SEO პლაგინი გთავაზობს განახლებად, ეგრეთწოდებულ დინამიურ XML საიტის რუკებს.
XML რუკა უნდა განათავსო ვებსაიტის მთავარ root directory ფაილში, შემდგომ კი მიაბა ის Google Search Console-ს.
Crawling ბიუჯეტის ოპტიმიზაცია
Crawling ბიუჯეტი ეს არის ვებსაიტზე არსებული გვერდების რაოდენობა, რომელსაც საძიებო სისტემის ბოტები უკეთებენ crawling-ს და ინდექსირებას კონკრეტულ, მინიჭებულ დროის შუალედში. საიტის crawling ბიუჯეტის ოპტიმიზირება ტექნიკური SEO-ს პრეროგატივაა და საკმაოდ მნიშვნელოვან როლს ასრულებს გვერდის ინდექსაციის, შემდგომში კი რანკინგის პროცესში.
მისი ოპტიმიზირება საკმაოდ მნიშვნელოვანი და მიზანშეწონილია წარმატებული ტექნიკური SEO კამპანიის განსახორციელებლად. კერძოდ, თუ ჩვენი გვერდების რაოდენობა გასცდა იმ მინიჭებულ crawling ბიუჯეტს, რომელშიც შენი საიტი უნდა ჩაეტიოს, გვექნება საიტზე ისეთი გვერდები, რომელთა ინდექსირებაც ვერ ხერხდება საძიებო სისტემის ბოტების მხრიდან.
ძირითად შემთხვევაში ეს პრობლემას არ წარმოადგენს უმეტესი ვებსაიტებისთვის, თუმცაღა ვებგვერდებისთვის, რომლებიც სარგებლობენ დიდი მოცულობისა და რაოდენობის გვერდებით, მაგალითად დიდი ონლაინ მაღაზიები, crawling ბიუჯეტი მათ SEO კამპანიაში დღის წესრიგში დგება.
შენი საიტის crawling ბიუჯეტის შემოწმება შეგიძლია სხვადასხვა SEO ხელსაწყოების მეშვეობით, მაგალითად SEMrush-ი. რაც შეეხება მის ოპტიმიზაციას, შეგიძლია მიმართო შემდეგ პრაქტიკებს:
- საიტის სისწრაფის გაუმჯობესება — პირდაპირ კორელაციაშია crawling rate-ის მაჩვენებელთან
- საიტის სტრუქტურის ორგანიზება — ბრტყელი სტრუქტურის ჩამოყალიბება
- 301 გადამისამართებების ოპტიმიზირება — არასაჭირო გადამისამართებებისა და გადამისამართებების ჯაჭვების აღმოფხვრა
- XML საიტის რუკების პერიოდულად განახლება
- დუპლიკატირებული კონტენტის აღმოფხვრა
- Broken link-ების მოშორება
საიტის crawling-ის მაჩვენებელი შეგიძლია გაიგო Google Search Console-ის მეშვეობით.
რა არის Duplicate კონტენტი
Duplicate (დუპლიკატირებული) კონტენტი ესაა ზუსტად ერთი-ერთში ან მსგავსი შინაარსის მქონე გვერდები, რომლებიც თანაარსებობენ ერთი და იმავე ვებსაიტზე, ანდაც წარმოდგენილნი არიან ორ სხვადასხვა ვებსაიტზე საძიებო სისტემის შედეგების გვერდზე.
Duplicate კონტენტი, რომელიც საიტზე არსებობს, უარყოფითი რანკინგ სიგნალია, რამაც შეიძლება გამოიწვიოს მნიშვნელოვნად საიტის პოზიციონირების დაქვეითება საძიებო სისტემის შედეგების გვერდზე. გარდა ამისა, მნიშვნელოვნად გააუარესოს გვერდის crawling ბიუჯეტის მაჩვენებელი და საბოლოოდ გვერდების ინდექსირების პრობლემა გამოიწვიოს.
საძიებო სისტემები, განსაკუთრებით კი Google-ი, ცდილობს დაარანკინგოს შედეგების გვერდზე ის კონტენტი, რომელიც განსხვავებული და უნიკალურია. სწორედ duplicate კონტენტი ამის საპირისპიროა და უარყოფით შედეგებს იწვევს საიტებისთვის ტექნიკური SEO ოპტიმიზაციის პერსპექტივით.
Duplicate კონტენტის აღმოსაფხვრელად პირველ რიგში გჭირდება მისი აღმოჩენა საიტზე. ამის გაკეთება შეგიძლია სხვადასხვა SEO ხელსაწყოების მეშვეობით, ასევე ონლაინ duplicate კონტენტის შემმოწმებლების საშუალებით.
მათი იდენტიფიცირების შემდეგ შეგიძლია მიმართო შემდეგ გამოსადეგ და პრაქტიკულ მეთოდებს (მათი იმპლემენტაცია სპეციფიკურია სხვადასხვა CMS-ების შემთხვევაში):
- Canonical URL-ის გამოყენება — ამით საძიებო სისტემის ბოტებს აძლევ ინსტრუქციას, რომ უგულვებელყოს ყველა დუპლიკატირებული კონტენტი და crawling-ი გაუკეთოს მხოლოდ შენ მიერ მითითებულ URL-ს, რომელზეც დააყენე canonical tag-ი.
- Noindex tag-ის გამოყენება — ამით მოახდენ საძიებო სისტემის ბოტების დაბლოკვას, არ დააინდექსიროს ის გვერდები, რომლებსაც დამატებული აქვთ noindex tag-ი.
- გვერდების კონსოლიდაცია — თუ ორ სხვადასხვა გვერდზე არსებობს ძალიან მსგავსი შინაარსის მქონე კონტენტი, ეს შეიძლება იყოს პროდუქტის ვარიაცია ან ორი ახლომდებარე ბლოგის სასაუბრო თემა, ისინი შეგიძლია გააერთიანო და ერთ კონტენტად წარმოადგინო.

- დუპლიკატირებული გვერდების წაშლა — ყველაზე მარტივი მეთოდი. აღნიშნულის გამოყენება ძირითადად ხდება, როდესაც კონტენტს არ აქვს რაიმე სახის ღირებულება საიტისთვის, მაგალითად category და tag გვერდები, არქივ გვერდები, კონტენტი, რომელიც ვერ სარგებლობს მაღალი ორგანული ტრაფიკით, ან არ არის შექმნილი copywriting-ის უნარების გამოყენებით.
რა არის robots.txt-ი
robots.txt-ი ეს არის ფაილი, რომელიც საძიებო სისტემის ბოტებს აძლევს ინსტრუქციას, თუ საიტის რომელ გვერდებს გაუკეთონ crawling-ი და ინდექსირება. აღნიშნული გამოიყენება, როგორც პრევენცია, აირიდო ისეთი გვერდების დაინდექსირება, რომელიც შენ SEO კამპანიას არ შეესაბამება. ეს შეიძლება იყოს არქივ გვერდები, login გვერდები, შიდა ძიების გვერდები, კატეგორიის და tag გვერდები WordPress-ში.
შესაბამისად, robots.txt შეგიძლია გამოიყენო, როგორც საძიებო სისტემის ბოტების crawling ტრაფიკის მიმცემი ინსტრუქტორი. თუმცაღა, მისი გამოყენება არ გამოდგება უტყუარ პირობად, რომ საძიებო სისტემამ მაინც არ მოახდინოს აღნიშნული გვერდების crawling-ი.
robots.txt სინტაქსურად გამოიყურება შემდეგნაირად:
user-agent: — აღნიშნავს იმ საძიებო სისტემის ბოტს, რომელსაც ვაძლებთ ინსტრუქციას.
Disallow: — აღნიშნავს საიტის იმ გვერდსა თუ სექციას, რომლის დაბლოკვასაც ვცდილობთ robots.txt-ით.
საიტის სისწრაფის გაუმჯობესება
საიტის სისწრაფე ესაა დროის ის მაჩვენებელი, რომელიც სჭირდება ვებსაიტს სრულად ჩატვირთვისთვის ვიზიტორის მხრიდან სერვერისთვის request-ის (მოთხოვნის) გაკეთების შემდეგ. საიტის სისწრაფე ტექნიკური SEO-ს ერთ-ერთი შემადგენელი ელემენტია და გვერდის რანკინგის ერთ-ერთ ფაქტორს წარმოადგენს.
კერძოდ, საიტის სისწრაფე შეიძლება გამოხატული იქნეს CORE WEB VITAL-თან მიმართებაში, სადაც მხედველობაშია მიღებული ისეთი მეტრიკები, როგორიცაა:
- First Input Delay — რამდენ წამში არის საიტზე არსებული ელემენტები ინტერაქციული ვიზიტორის დაწკაპუნებასთან მიმართებით
- First Meaningful Paint / First Contextual Paint — რამდენი წამი სჭირდება კონტენტის ყველაზე მნიშვნელოვანი ნაწილის ჩატვირთვას
- Time to First Byte — რამდენ წამში იწყებს საიტი ჩატვირთვას request-ის გაკეთების შემდეგ
- Fully Loaded Page — რამდენ წამში იტვირთება საიტი მთლიანად
რაც შეეხება იმ პრაქტიკულ მეთოდებს, რომლებსაც შეგიძლია მიმართო საიტის სისწრაფის გასაუმჯობესებლად, პირველ რიგში გჭირდება ჩაატარო საიტის აუდიტი, გაიგო ამჟამად როგორ არის ოპტიმიზირებული შენი საიტის სისწრაფე, თუ პრობლემებია — რა ქმნის ამ უკანასკნელს.
ამისათვის მიმართე SEO ხელსაწყოებს, მაგალითად SEMrush SEO audit ხელსაწყოს. საიტის მიმართების გასაგებად CORE WEB VITAL-თან შეგიძლია გამოიყენო Google-ის ხელსაწყო — Google PageSpeed Insights.
რაც შეეხება იმ მეთოდებს, რომლებსაც შეგიძლია მიმართო საიტის სისწრაფის გასაუმჯობესებლად, ესენია:
- სურათების კომპრესია
- Browser caching-ის გამოყენება
- თანამედროვე მედია ფორმატების არჩევა
- სერვერის response დროის გაუმჯობესება — ჰოსტინგის გაუმჯობესება
- არასაჭირო კოდების აღმოფხვრა — HTML, JavaScript, CSS
- Lazy loading-ის გამოყენება
- CDN-ის გამოყენება
- არასაჭირო 301 გადამისამართებების აღმოფხვრა
რა არის Hreflang-ი?
Hreflang-ი არის HTML ატრიბუტი, რომელიც გამოიყენება მრავალენოვანი და ინტერნაციონალური ვებსაიტებისათვის. კონკრეტულად, ის აზუსტებს ენობრივ და გეოგრაფიულ სპეციფიკას აღნიშნული ვებსაიტის დასათარგეთებლად ამ პარამეტრებზე.
SEO აუდიტი — ტექნიკური SEO ოპტიმიზაცია
ერთია განახორციელო საიტის ტექნიკური ასპექტების ოპტიმიზირება, თუმცაღა მეორე საკითხია, რამდენად სწორად და გამართულად მუშაობს შენ მიერ ჩატარებული SEO ძალისხმევები. სწორედ აქ ჩნდება SEO აუდიტის მნიშვნელობა და საჭიროება. ამ ნაწილში კი შეძლებ გაეცნო იმ SEO ხელსაწყოებსა და სტრატეგიებს, რაც დაგეხმარება სრულყოფილი SEO აუდიტის ჩატარებაში.
SEO აუდიტი
SEO აუდიტის ჩატარება ერთ-ერთი უმნიშვნელოვანესი პროცესია საიტის ტექნიკური SEO ოპტიმიზაციის თვალსაზრისით. ის გაძლევს საშუალებას პირველ რიგში აღმოაჩინო ის ტექნიკური ხარვეზები, რომელიც იწვევს უარყოფით რანკინგ სიგნალს შენი საიტის პოზიციონირებისთვის SERP-ში; მეორე კი — შეაფასო შენ მიერ ჩატარებული SEO კამპანიის ძალისხმევები, თუ რამდენად მუშაობს ის და რა ნაწილებში სჭირდება ჯერ კიდევ გაუმჯობესება.
ტექნიკური SEO-ს თვალსაზრისით, საიტის SEO აუდიტს მნიშვნელოვანი ადგილი უკავია და მოიცავს ისეთ შემადგენელ ელემენტებს, როგორიცაა ვებგვერდის შემოწმება:
- BROKEN LINK-ებისთვის, ეგრეთწოდებული 404 error და 404 soft error გვერდებისთვის
- Crawling budget-ის ანალიზი
- შემოწმება, თუ რამდენად სწორად არის დაყენებული meta directive-ები და robots.txt
- არის თუ არა საიტზე არასაჭირო 301 გადამისამართების ჯაჭვები
- არის თუ არა საიტზე ეგრეთწოდებული orphan გვერდები, რომლებიც იწვევს crawling-ის პრობლემას
- არის თუ არა გვერდების ინდექსირების პრობლემა
- არის თუ არა გვერდებზე ეგრეთწოდებული “ზომბი” გვერდები
- არსებობს თუ არა საიტზე დუპლიკატირებული კონტენტი
აღნიშნული სამუშაო პროცესის ჩასატარებლად შეგიძლია მიმართო სხვადასხვა SEO ხელსაწყოებს, ასევე Google Search Console-ს.
SEMrush საიტის აუდიტის ხელსაწყო
აღნიშნული სამუშაო პროცესს ბევრად გაგიმარტივებს და მოგცემს სრულ ხედვას ყველა იმ ტექნიკურ ასპექტებზე, რომლებიც საჭიროებენ ტექნიკური SEO ოპტიმიზაციას. ამისათვის უნდა გამოიყენო ამ ხელსაწყოს ერთ-ერთი ფუნქცია, კერძოდ ჩაატარო საიტის სრული crawling-ი და აღმოაჩინო ყველა ის ელემენტი საიტზე, რომლებიც მოითხოვენ SEO ძალისხმევებს.
Google Search Console და SEO აუდიტი
Google Search Console არის ერთ-ერთი საუკეთესო და უფასო ხელსაწყო მოახდინო შენი ვებსაიტის ტექნიკური SEO-თი ოპტიმიზირება. გამოიყენო ის საიტის SEO აუდიტის ჩასატარებლად, კერძოდ — აღმოაჩინო ტექნიკური პრობლემები, რომლებიც იწვევს გვერდების ინდექსირების პრობლემას, მაგალითად: 404 error გაფრთხილებებზე, 404 soft error გაფრთხილებებზე, გადამისამართებების პრობლემებზე.
ამ ხელსაწყოთი შეგიძლია გაიგო და ნახო, თუ როგორ არენდერებს Google-ი შენს ვებსაიტს, ასევე აღმოაჩინო ეგრეთწოდებული დუპლიკატირებული კონტენტი.