چرخه آنالیز از آنالیز اولیه و اصلی به نام Primary Analysis آغاز می شود.این فاز از بررسی ضروری و نیاز به توجه ضروری قبل از هرکاری از قبیل ایجاد،به روزرسانی و یا حذف کردن محتوا را دارد.اگر این بررسی به درستی انجام شود میتوان وبسایت را از محتوای کپی شده یا تکراری شامل متن،پیوند یا عکس را خالی کرد.البته برای پیشروی درست بررسی ها ها باید با نیازمندی ها و بخش های مختلف کسب و کار مورد نظر آشنا بود؛در این صورت میتوانید ایده های خوب در راستای کسب و کار و پیاده سازی آن در وبسایت خود داشته باشید.
مراحل روش بررسی Primary :
– بررسی کلمات کلیدی: بررسی کلمات کلیدی با انواع مختلف مانند کلمات کلیدی دو عبارته(تشکیل شده از دو کلمه)،کلمات کلیدی ۳ عبارته،کلمات کلیدی براساس اهداف جغرافیایی و به همین صورت.
– بررسی رقبا: برای اینکار می بایست کلمات کلیدی استفاده شده توسط رقبا براساس منطقه جغرافیایی(اولویت وبسایت های داخلی می باشد) مورد تجزیه و تحلیل قرار بگیرد.اگر برای مثال وبسایتی برای ارائه خدمات فناوری اطلاعات در تهران دارید،باید کلمات کلیدی وبسایت های موفق که در تهران فعالیت میکنند را بررسی و از نکات آن استفاده کرد.البته دسترسی به این کلمات کلیدی به هیچ وجه آسان نیست و باید از متخصصان و شرکت های طراحی سایت موفق نظیر آروین کارن مشورت و کمک گرفت.
– بررسی بک لینک های رقبا: یکی دیگر از بخش های مهم Primary Analysis که باید انجام بگیرد،آنالیز پیوندها و بک لینک های داخل و خارج وبسایت است.باید طریقه بک لینک گذاری های رقبا مورد تحلیل قرار گیرد و از نکات مفید آن استفاده کرد.
– بررسی الگوریتم های موتورهای جستجو: از سال ۲۰۰۰ تا کنون الگوریتم های گوگل بسیار تکامل یافته شده اند.خصوصا در چند سال اخیر این الگوریتم ها رشد فوق العاده ای داشته اند،و به صورت دوره ای به روز و کامل تر می شوند و ایرادات احتمالی آنان رفع می شود.دو عدد از الگوریتم هایی که بسیار قدرتمند هستند و اگر در بررسی ها و اصلاحات وبسایت اشتباهی رخ دهد،به شدت آن وبسایت را جریمه میکنند،الگوریتم های “پاندا” و “پنگوئن” میباشند.الگوریتم های پاندا و پنگوئن را در ادامه معرفی خواهیم کرد.
این بررسی ها مشخص می کند که کدام بخش های وبسایت احتمال این که توسط این دو الگوریتم جریمه شوند را دارند.البته فقط گوگل الگوریتم برای فیلتر کردن ندارد و موتورهای جستجوی دیگر نیز الگوریتم های منحصر به فرد خود را دارا می باشند.
الگوریتم پاندا:این الگوریتم در سال ۲۰۱۱ در گوگل متولد شد.وظیفه اصلی این الگوریتم این است که با وبسایتهایی که محتوای ضعیف و هرز دارند مبارزه می کند.این الگوریتم پس از تشخیص ضعیف بودن یا تکراری و کپی بودن محتوای وبسایت،آن صفحه از وبسایت یا کل وبسایت را جریمه و رتبه آن را به شدت کاهش می دهد.
الگوریتم پنگوئن:توسط گوگل در سال ۲۰۱۲ منتشر شد.این الگوریتم وظیفه اطلاع دادن وبسایتهایی را به گوگل دارد که از بک لینک های غیرطبیعی و جعلی استفاده میکنند.در مبحث سئو، بک لینک سازی و قرار دادن لینک ها از صفحات مختلف وبسایت در وبسایت های دیگر در افزایش رتبه وبسایت تاثیر بسزایی دارد.اما اگر اینکار به صورت غیر طبیعی و جعلی و خارج از حد انجام شود که روش های مختلفی دارد،این الگوریتم به شدت با آنها برخورد میکند.