من جهادی ام

کارشناس وپژوهشگرو مشاور فضای مجازی و سوادرسانه ای سربازصفرولایت وبرمدار ولایت

من جهادی ام

کارشناس وپژوهشگرو مشاور فضای مجازی و سوادرسانه ای سربازصفرولایت وبرمدار ولایت

آموزش سوادرسانه ای وتربیت مربی سوادرسانه ای
مشاوره در خصوص آسیب های فضای مجازی وشبکه های اجتماعی
روشنگری در این زمینه
تولید محتوا در زمینه سوادرسانه ایـ - آسیبهای اجتماعی - جنگ نرم - عملیات روانی - جنگ شناختی - هیبریدی و...... - مشکلات جنسی - وابستگی ها - طلاق عاطفی - طلاق و
کلیه مسایل مربوط به فضای سایبری

تبلیغات
Blog.ir بلاگ، رسانه متخصصین و اهل قلم، استفاده آسان از امکانات وبلاگ نویسی حرفه‌ای، در محیطی نوین، امن و پایدار bayanbox.ir صندوق بیان - تجربه‌ای متفاوت در نشر و نگهداری فایل‌ها، ۳ گیگا بایت فضای پیشرفته رایگان Bayan.ir - بیان، پیشرو در فناوری‌های فضای مجازی ایران
آخرین نظرات
نویسندگان

۳ مطلب در مرداد ۱۴۰۰ ثبت شده است

شبکه‌ی ملی اطلاعات، از فلسفه تا اقدام

خانه / مقالات تفصیلی / نقش «دانش شناخت» در کنترل انسان

نقش «دانش شناخت» در کنترل انسان

انتشار یافته در فصلنامه‌ی تخصصی آینده، شماره‌ی ۱۰ (تابستان ۱۳۹۸)، صفحات ۱۴ الی ۱۹

پیش‌درآمد

دانش شناخت -که معادل لغوی Cognitive Science است و در زبان فارسی به اشتباه علوم شناختی نام گرفته- دانشی است که به مطالعه‌ی ذهن، فرایندهای ذهنی [۱] و نحوه‌ی اثرگذاری اطلاعات بر ذهن می‌پردازد. این مهم از معنای لغوی Cognitive نیز قابل استحصال است که ریشه در Cognition دارد و به‌معنای «شناخت فرایندی» است به‌گونه‌ای که بتوان هدف مورد مطالعه را تحت تأثیر و کنترل قرار داد. از این رو دانش شناخت با هر دانشی که بتواند در ایجاب هدف فوق ایفای نقش نماید، ارتباط دارد. لذا دانش شناخت از حیث محتوا دارای یک هسته‌ی اصلی و مستقل است اما برای تأمین اطلاعات مورد نیاز آن، به‌صورت بین رشته‌ای عمل می‌نماید.

جایگاه دانش شناخت در هندسه‌ی تولید قدرت

به‌طور کل، قدرت[۱] به‌معنای توان تحمیل اراده‌ی خود بر دیگری است. بر اساس آنکه تحمیل اراده با چه صلابتی صورت پذیرد، چهار حوزه‌ی قدرت سخت، قدرت معطوف به سخت، قدرت معطوف به نرم و قدرت نرم[۲] مطرح می‌شود.

بنیادی‌ترین نوع قدرت در عصر حاضر، قدرتی است که از حیث صلابت «نرم» باشد. از این رو در منظومه‌ی قدرت، قدرت نرم در کانون قرار می‌گیرد و سایر قدرت‌ها با آن تنظیم می‌شوند.

این مهم در متون پایه‌ی علمی و اسناد فرادستی کشورهایی که به‌عنوان صاحبان قدرت در عرصه‌ی بین‌الملل شناخته می‌شوند، به‌صراحت بیان شده است.

از سوی دیگر از منظر جهان‌بینی لیبرال، مبنای تولید قدرت نرم در عصر حاضر دانش سایبرنتیک[۳] است. لذا سایر دانش‌های مولد قدرت در نسبت با سایبرنتیک تنظیم می‌شوند.

دانش سایبرنتیک

واژه‌ی سایبرنتیک، هم از حیث لغوی و هم از منظر مفاهیم علمی، نه فقط در زبان فارسی بلکه -طبق تحقیقات- در بیشتر زبان‌های زنده‌ی امروزی آن‌طور که واقعاً هست؛ شناخته نشده.

      الف) تعریف، هدف و کارکرد دانش سایبرنتیک

به‌طور کل سایبرنتیک، دانش کنترل یک پدیده‌ی هوشمند از طریق جهت دادن به اطلاعاتی است که به‌عنوان مبنای تحلیل و نتیجه‌گیری آن پدیده مورد استفاده قرار می‌گیرد؛ به‌گونه‌ای که در نهایت رفتار آن را طبق خواست کنترل‌کننده تغییر می‌دهد. حال اگر پدیده‌ی مفروض «انسان» باشد کنترل وی منتج به تولید قدرت نرم می‌شود و اگر آن پدیده «ماشین هوشمند» باشد، از آنجا که هر ماشین از سیستم فرماندهی – کنترل[۴] دستور می‌گیرد، در نتیجه کنترل آن قدرت فرماندهی – کنترل را رقم می‌زند. به‌عبارت دیگر دانش سایبرنتیک، مبنا و خاستگاه دو قدرتی است که ساز و کار کنترل جهان امروز هستند و تقابل کشورها با یکدیگر از جنبه‌ی این دو قدرت، به‌ترتیب به جنگ نرم و جنگ فرماندهی – کنترل منتج می‌شود [۲].

      ب) مفهوم‌شناسی و واژه‌شناسی Cybernetic

کارکرد فوق نه تنها از بستر محتوایی دانش سایبرنتیک به‌دست می‌آید، بلکه حتی از معنای لغوی این واژه نیز مستفاد می‌شود. Cybernetic ریشه در زبان یونانی دارد و به واژه‌ی kybernetes باز می‌گردد [۳]. معنای این واژه‌ی یونانی معادل «راهنما»، «فرماندار» و از همه مهم‌تر «حکومت» می‌باشد [۴]. در سال ۱۸۳۰ میلادی از ریشه‌ی یونانی آن در زبان فرانسه واژه‌ی «cybernétique» ایجاد شد که تعریف آن «The art of Governor» به معنای «هنر حکومت‌داری» است [۵]. در سال ۱۸۳۴ نیز فیزیک‌دان معروف فرانسوی «آندره آمپر»[۵]، این واژه را در طبقه‌بندی علوم به‌معنای «حکومت و شعبه‌ای از علم سیاست» استعمال نمود [۶]. نهایتاً در سال ۱۹۴۸، نوربرت وینر[۶] برای اولین بار در زبان انگلیسی در کتابی با عنوان «سایبرنتیک: یا کنترل و ارتباط در حیوان و ماشین»[۷] واژه‌ی Cybernetic را به‌کار برد. وی در تعریف این واژه گفته است: «تصمیم ما بر این است که کلیات مطالعات نظری کنترل و ارتباطات در ماشین و موجودات زنده را سایبرنتیک بنامیم.»

نسبت‌شناسی دانش شناخت و سایبرنتیک در حوزه‌ی تولید قدرت

آنچه در خصوص دانش شناخت بسیار مهم است اما مورد غفلت واقع شده، کارکرد آن در حوزه‌ی تولید قدرت است. شاید برای فهم این منظور روش‌هایی نظیر مطالعات استقرایی، مطالعات معکوس، برآیندگیری از نظرات متخصصان این دانش و سایر روش‌های مرسوم مناسب باشد اما دقیق‌ترین و جامع‌ترین شیوه برای فهم نقش دانش شناخت در تولید قدرت، یافتن نسبت آن با دانش سایبرنتیک به‌عنوان مبنای تولید قدرت است.

بیان شد که سایبرنتیک، یک پدیده‌ی هوشمند را از طریق کنترل اطلاعات دریافتی، به‌گونه‌ای کنترل می‌نماید که رفتار آن مطابق خواست کنترل‌کننده تنظیم شود. بر این اساس دو سؤال مهم مطرح می‌شود:

  1. هر پدیده‌ی هوشمند -اعم از انسان و ماشین- از چه منابعی و چگونه اطلاعات مورد نیاز خود را در امر تصمیم‌گیری دریافت می‌کند؟
  2. هر پدیده‌ی هوشمند، اطلاعات دریافتی را چگونه تحلیل می‌کند تا نهایتاً بر اساس آن به تصمیم مقتضی دست یابد؟

پاسخ به دو سؤال فوق مهم‌ترین بخش در ساز و کار قدرت نرم است زیرا عدم شناخت نحوه‌ی دریافت و پردازش اطلاعات سیستم هدف، به شکست کنترل آن توسط قدرت نرم منجر می‌شود. ضمناً باید توجه داشت چنین نیست که یک پدیده‌ی هوشمند، همواره بر مبنای یک روش ثابت به کسب اطلاعات و تحلیل آنها بپردازد بلکه ممکن است روش‌های آن در نسل‌های مختلف تغییر یابد. کما اینکه این نکته درباره‌ی انسان و ماشین‌های هوشمند اثبات شده است.

از سوی دیگر پاسخ به پرسش‌های فوق در حوزه‌ی دانش سایبرنتیک تعریف نشده، لذا نیاز است دانشی مستقل اما هماهنگ و یکپارچه با منطق سایبرنتیک، به‌طور دائم و مستمر بر روش‌های کسب و تحلیل اطلاعات پدیده‌های هوشمند مطالعه‌ نماید تا نهایتاً به‌واسطه‌ی نتایج آن بتوان از طریق دانش سایبرنتیک به کنترل رفتار آن پدیده‌ها دست یافت.

این نیاز بسیار مهم و بی‌بدیل توسط دانش شناخت تأمین می‌شود. از این رو در نسبت‌شناسی دانش شناخت و سایبرنتیک می‌توان گفت:

دانش سایبرنتیک، مبنای طرح‌ریزی و تولید قدرت نرم برای کنترل پدیده‌های هوشمند است و دانش شناخت تبیین‌گر روش‌های اثرگذاری قدرت تولید شده توسط سایبرنتیک بر پدیده‌های می‌باشد.

بنابر این دانش شناخت در مدل جدید قدرت نرم، نقش اسب تروا را ایفا می‌کند زیرا به‌دنبال یافتن راه‌هایی در اهداف است که از طریق آنها بتوان توان تحمیل اراده‌ بر مبنای قدرت نرم را به ثمر رساند.

بر اساس آنچه بیان شد، یک نتیجه‌ی بسیار مهم حاصل می‌شود که در متون علمی فارسی و انگلیسی پیرامون دانش شناخت به آن اشاره نشده است. به‌دلیل آنکه دانش سایبرنتیک بر ماشین‌های هوشمند نیز تمرکز دارد تا قدرت فرماندهی – کنترل را بر آنها تحمیل نماید، لازم است دانش شناخت بر روش‌های کسب و تحلیل اطلاعات سیستم‌های هوشمند نیز مطالعه داشته باشد. این در حالی است که عموم متخصصان تصور می‌کنند دانش شناخت صرفاً بر ذهن و ادراک انسان تمرکز نموده.

به‌همین دلیل است که هوش مصنوعی[۸] و سایر دانش‌های مرتبط با ماشین‌های هوشمند، نقش و جایگاه کاربردی در دانش شناخت دارند.

سرانجام

شرایط عصر حاضر به‌گونه‌ای است که دستیابی به دانش طرح‌ریزی و تولید قدرت نرم را برای تمامی کشورهای جهان ضروری ساخته و ایران اسلامی نیز همانند سایر قدرت‌های بین‌المللی نیازمند این مهم است. اما باید در نظر داشت تمام آنچه بیان شد ابتناء بر جهان‌بینی غیر توحیدی لیبرالیسم دارد و مطلقاً نمی‌توان از مبانی و روش‌های آن در تولید قدرت نرم توحیدی استفاده نمود. اما مطالعه‌ و بررسی دانش شناخت و سایبرنتیک، اولاً در فهم جهان‌بینی و اندیشه‌ی دشمن در حوزه‌ی قدرت نرم نقشی بی‌بدیل دارد و ثانیاً مواضع وقوع مفسده در طرح‌ریزی قدرت نرم را برای جهان‌بینی توحیدی مشخص می‌نماید. به‌عبارت دیگر آنچه مبنای عمل در مدل لیبرالی از قدرت نرم است، به‌عنوان نهی و نفی در مدل توحیدی کاربرد دارد.

باید توجه داشت که هرگونه پیروی از مدل قدرت نرم بر مبنای جهان‌بینی لیبرال، باعث سوق یافتن حکومت و جامعه به‌سمت مبانی اندیشه‌ی لیبرالیسم می‌شود.

لذا تلاش مؤمنین متخصص بر تبیین و تدوین معادل‌های توحیدی برای دانش شناخت و سایبرنتیک معطوف شده که به لطف خداوند در این راه نتایج علمی و عملی قابل قبول حاصل گشته است.

 

ورود به صفحه‌ی اختصاصی مقاله در کتابخانه‌ی سایت، جهت دریافت متن آن با فرمت PDF

منابع

[۱]  Stanford Encyclopedia of Philosophy (2019), Cognitive Science, From:

https://plato.stanford.edu/entries/cognitive-science/?PHPSESSID=babfeb7a06300757e26b824eb51b7fff#Concepts

[۲] شکوهیان‌راد، محمد علی؛ نظریه‌ی جنگ در عصر سیستم‌های فرماندهی – کنترل، تهران، ۱۳۹۷، انتشارات شهید سپهبد صیاد شیرازی، ص ۵۹

[۳] Online Etymology Dictionary (2019), Cybernetics, From:

https://www.etymonline.com/word/cybernetics

[۴] Merriam-Webster (2019), Cybernetics, From:

https://www.merriam-webster.com/dictionary/cybernetics

[۵] Wiktionary (2019), ), Cybernetics, From:

https://en.wiktionary.org/wiki/cybernetics

[۶] معتمدنژاد، کاظم؛ وسایل ارتباط جمعی، تهران، ۱۳۸۶، انتشارات دانشگاه علامه طباطبایی، چاپ ششم، ص۴۲-۴۱

[۱] Power

[۲] در نوعی دیگر از دسته‌بندی، قدرت از حیث صلابت به سه دسته‌ی سخت، نیمه‌سخت و نرم تقسیم می‌شود اما امکان تعریف بعضی از مصادیق قدرت را ندارد.

[۳] Cybernetics

 

۰ نظر موافقین ۰ مخالفین ۰ ۳۰ مرداد ۰۰ ، ۱۷:۳۶
رحمن زنگنه

فهرست موتورهای جستجو

افزودن توضیحات عنوان


 

عمومی

اطلاعات بیشتر نام, زبان ...

نام زبان
بایدو چینی
بینگ چندزبانه
داک‌داک‌گو چندزبانه
اکوزیا* چندزبانه
Exalead چندزبانه
Gigablast انگلیسی
گوگل چندزبانه
Munax چندزبانه
Qwant چندزبانه
Sogou چینی
Soso.com چینی
یاهو!* چندزبانه
Yandex چندزبانه
Youdao چینی

بستن

* نیرو گرفته از بینگ

دارک وب

  • Ahmia
  • Grams
  • TorSearch

کد باز

  • DataparkSearch
  • Egothor
  • Gonzui
  • Grub
  • dig
  • Lucene
  • Lemur Toolkit & Indri Search Engine
  • mnoGoSearch
  • Namazu
  • Nutch
  • OpenFTS
  • Sphinx
  • SWISH-E
  • Terrier Search Engine
  • Search Wikia
  • Xapian
  • YaCy
  • Zettair

فرا جستجو

  • GLseek
  • Bioinformatic Harvester
  • Brainboost
  • Clusty
  • Dogpile
  • Excite
  • HotBot
  • Info.com
  • Ixquick
  • Mamma
  • Metacrawler
  • MetaLib
  • Myriad Search
  • PolyMeta
  • SideStep
  • Turbo۱۰
  • WebCrawler

محلی

اطلاعات بیشتر نام, زبان ...

نام زبان کشور
پارسی‌جو فارسی ایران
گردو فارسی ایران
جس‌جو   ایران
Accoona چینی، انگلیسی چین، ایالات متحده آمریکا
Biglobe ژاپنی ژاپن
Daum کره‌ای کره
Egerin کردی کردستان
Goo ژاپنی ژاپن
Leit.is   ایسلند
Maktoob   جهان عرب
Miner.hu   مجارستان
Najdi.si   اسلوونی
ناور کره‌ای کره
Pipilika   بنگلادش
Rambler   روسیه
Rediff   هند
SAPO   پرتغال، آنگولا، کیپ ورد، موزامبیک
Search.ch   سوئیس
Sesam   نروژ، سوئد
سزنم   جمهوری چک
Walla!   اسرائیل
یاندکس   روسیه، ترکیه، اوکراین، بلاروس، قزاقستان
ZipLocal   کانادا، ایالات متحده آمریکا
یوز   ایران
ذره‌بین   ایران

بستن

اخبار

جستارهای وابسته

۰ نظر موافقین ۰ مخالفین ۰ ۲۸ مرداد ۰۰ ، ۲۱:۱۲
رحمن زنگنه

بهینه‌سازی موتور جستجو

بالابردن قابلیت مشاهدۀ وبگاه در نتایج موتورهای جستجوگر


بهینه‌سازی موتور جستجو (به انگلیسی: Search Engine Optimization)، (کوتاه: سئو (به انگلیسی: SEO))، یک روند مناسب برای بهتر دیده‌شدن یک وب‌سایت یا یک صفحه وب در نتایج جستجو طبیعی یک موتور جستجو است. معمولاً وب‌سایت‌هایی که بالاترین مکان و بیشترین تکرار در صفحه نتایج جستجو را دارند، بازدیدکننده بیشتری از طریق موتورهای جستجو به دست می‌آوردند و این بازدیدکنندگان می‌توانند به مشتری تبدیل شوند.

سئو ممکن است انواع گوناگون جستجو را دربرگیرد؛ از جمله جستجوی تصویر، جستجو در ویدیو، جستجوی دانشگاهی، جستجو در اخبار و جستجو در نقشه. «سئو» یک سایت شامل فاکتورهای زیادی می‌شود، که توسط موتورهای جستجو بررسی و بازبینی می‌شود.

از دید بازاریابی اینترنتی، «سئو» به چگونگی کار کردن موتورهای جستجو و اینکه کاربران چه چیزی جستجو می‌کنند و همین‌طور کلمات کلیدی تایپ‌شده و اینکه کدام یک از موتورهای جستجو توسط مخاطبان مورد توجه قرار می‌گیرد را مورد بررسی قرار می‌دهد.

بهینه‌سازی وب‌سایت، شامل توسعه و ویرایش مطالب موجود در خود سایت و اچ‌تی‌ام‌ال و برنامه‌نویسی و همچنین ارتباط بین کلمات کلیدی و حذف موانع مربوط به فعالیت‌های نمایه‌سازی در موتور جستجو و ترویج یک سایت، برای افزایش تعداد لینک‌دهنده یا لینک‌های ورودی و دیگر تاکتیک‌های جستجوگرها است.

در نتیجه در خلاصه‌ترین تعریف «سئو» را می‌توان به معنای بهینه‌سازی سایت برای موتورهای جستجو دانست.

پیشینه

از اواسط دهه ۱۹۹۰ میلادی که نخستین موتورهای جستجو اقدام به فهرست کردن وب نخستین کردند. مدیران وبگاه‌ها و تولیدکنندگان محتوا، شروع به بهینه‌سازی وب‌سایت‌ها برای موتورهای جستجو نمودند.

در ابتدا تمام کارهایی که مدیران وب‌سایت‌ها باید انجام می‌دادند، ارسال آدرس صفحه به موتورهای مختلفی که یک «عنکبوت» جهت «خزش» آن صفحه می‌فرستادند، استخراج لینک‌های صفحه به سایر صفحات از درون صفحه و بازگرداندن اطلاعات یافت‌شده در صفحه، جهت ایندکس‌شدن بود.

فرایند به این صورت است که عنکبوت موتور جستجو، یک صفحه را دانلود و آن را در سرور موتور جستجو ذخیره می‌کند و یک برنامه دیگر موسوم به ایندکس‌کننده، اطلاعات مختلفی را دربارهٔ صفحه استخراج می‌کند؛ اطلاعاتی از قبیل واژه‌های موجود و محل قرارگیری آن‌ها در صفحه و نیز وزن خاص واژه‌های به‌خصوص و تمام لینک‌های موجود در صفحه، که سپس جهت خزش در زمانی دیگر، در دستور کار قرار می‌گیرد.

مدیران سایت‌ها شروع به بازشناسی ارزش رتبه بالای سایت خود و در دید قرار گرفتن آن در نتایج موتورهای جستجو نمودند که این امر، فرصتی را برای هکرهای غیرمخرب و مخرب شاغل در بخش بهینه‌سازی موتور جستجو مهیا کرد.

تصویر صفحهٔ نتایج موتور جستجو

یک نمونه از صفحه نتایج موتور جستجو

نسخه‌های اولیه الگوریتم‌های جستجو به اطلاعات فراهم‌شده توسط مدیران وب‌سایت‌ها، نظیر متا تگ واژه‌های کلیدی، یا فایل ایندکس موتورهای جستجو، مانند ای‌ال‌آی‌وب اعتماد و اتکا می‌کردند. متاتگ‌ها یک راهنمایی برای محتوای هر صفحه فراهم می‌کنند.

با این حال، استفاده از داده‌های متا در صفحات ایندکس، کمتر قابل اطمینان بود؛ زیرا انتخاب واژگان در یک متاتگ توسط وب‌سایت‌ها، بالقوه می‌تواند یک نمایش غیردقیق از محتوای واقعی وب‌سایت باشد. داده‌های نادرست، ناقص و ناسازگار در متا تگ‌ها می‌تواند موجب رتبه‌بندی‌شدن صفحه برای جستجوهای غیرمرتبط گردد. تولیدکنندگان محتوای شبکه، همچنین تعدادی از ویژگی‌های منبع اچ‌تی‌ام‌ال، یک صفحه را دست‌کاری کردند تا رتبه صفحه را در موتورهای جستجو بهبود بدهند.

با تأکید بر عواملی مانند تراکم واژه کلیدی، که به‌طور انحصاری تحت کنترل مدیر وب‌سایت است، موتورهای جستجوی اولیه از سوءاستفاده و دست‌کاری رتبه‌بندی رنج می‌بردند.

ازآنجایی‌که موفقیت و محبوبیت یک موتور جستجو از طریق توانایی آن در تولید نتایج مرتبط‌تر در قبال هر جستجوی صورت گرفته مشخص می‌شود، کیفیت پایین یا نتایج نامرتبط می‌تواند سبب سوق دادن کاربران به منابع جستجوی دیگر شود. موتورهای جستجو با توسعه الگوریتمی رتبه‌بندی پیچیده‌تر به این عمل پاسخ دادند؛ که در آن عوامل بیشتری مورد توجه قرار می‌گیرند و دست‌کاری را برای مدیران شبکه، سخت‌تر می‌سازند.

به‌منظور ارائه نتایج بهتر به کاربران خود، موتورهای جستجو باید انطباق یافته و از نتایج صفحاتی اطمینان یابند که نتایج مرتبط‌تری دارند، نه نتایج مربوط به صفحاتی که نامربوط بوده و توسط مدیران شبکه بدون وجدان کاری و با استفاده از کلمات کلیدی متعدد پرشده‌اند.

لری پیج و سرگئی برین، دو دانشجوی فارغ‌التحصیل دانشگاه استنفورد، یک موتور جستجو موسوم به بک‌روب را توسعه دادند که جهت ارزیابی برجستگی صفحات وب، به یک الگوریتم ریاضیاتی تکیه داشت. عددی که توسط الگوریتم محاسبه می‌شد، یعنی «رتبه صفحه»، تابعی است از مقدار و قدرت لینک‌های ورودی. رتبه صفحه، میزان یک صفحه معین را که توسط یک کاربر، که به‌صورت تصادفی شبکه را جستجو می‌کند، مورد دسترسی قرارگرفته، تخمین می‌زند و لینک‌های یک صفحه به صفحه دیگر را دنبال می‌کند.

درواقع، این بدان معناست که برخی لینک‌ها از سایر لینک‌ها قوی‌تر بوده، رتبه صفحه بالاتر احتمال دیده شدن صفحه توسط وب‌گردهای تصادفی را افزایش می‌دهد.

ارتباط با گوگل

پیچ و برین، گوگل را در سال ۱۹۹۸ بنیان‌گذاری کردند. گوگل درمیان کاربران فزاینده اینترنت، هواداران ثابت‌قدمی را به خود جذب کرد که طراحی ساده آن را دوست داشتند. عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه تحلیل لینک) نیز همانند عوامل داخل صفحه (فراوانی واژه‌های کلیدی، متاتگ‌ها، عنوان‌ها، لینک و ساختار وب‌سایت) مورد توجه قرار گرفتند تا گوگل را قادر به این امر سازند که از نوعی دست‌کاری که در موتورهای جستجویی دیده می‌شود، که تنها به عوامل داخل صفحه توجه می‌کنند، اجتناب نماید.

علی‌رغم اینکه به بازی گرفتن رتبه صفحه سخت‌تر بود، مدیران شبکه سرانجام ابزارها و طرح‌های تولید لینک را جهت تحت تأثیر قرار دادن موتور جستجوی اینکتومی توسعه دادند و این روش‌ها ثابت کردند که به طریقی مشابه می‌توان رتبه صفحه را تحت تأثیر قرار داد.

بسیاری از وب‌سایت‌ها روی تبادل، خریدوفروش لینک در حجم زیاد و وسیع متمرکز هستند. بعضی از این طرح‌ها یا مزارع لینک، موجب ایجاد هزاران وب‌سایت برای فروش هرزنگاری لینک‌ها می‌شوند.

گوگل اینستنت، یا جستجوی زمان واقعی، در اواخر سال ۲۰۱۰ در تلاشی به‌منظور به‌هنگام‌تر و مرتبط نمودن جستجوها ارائه شد. به‌طور تاریخی، مدیران وب‌سایت‌ها، ماه‌ها یا حتی سال‌ها روی بهینه‌سازی یک وب‌سایت و ارتقای رتبهٔ جستجوی آن زمان گذاشته‌اند.

با گسترش عمومیت وب‌سایت‌ها و وبلاگ‌های رسانه‌های اجتماعی، موتورهای جستجوی پیشرفته در الگوریتم‌های خود تغییراتی ایجاد کردند تا مطالب تازه به سرعت در میان نتایج جستجو رتبه‌بندی شوند.

در فوریه ۲۰۱۱، از آپدیت پاندا خبر داد که وب‌سایت‌هایی را که حاوی محتوای تکثیرشده از وب‌سایت‌ها و منابع دیگر باشند، جریمه می‌کند. به‌طور تاریخی، وب‌سایت‌ها محتوا را از یکدیگر کپی کرده و از آن در رتبه‌بندی موتورهای جستجو بهره‌مند شده‌اند. با این حال، گوگل یک سیستم جدید پیاده‌سازی کرد که سایت‌هایی را که حاوی محتوای منحصربه‌فرد نیستند، جریمه می‌کند.

در آوریل ۲۰۱۲، گوگل از آپدیت گوگل پنگوئن رونمایی کرد که هدف آن، جریمه کردن وب‌سایت‌هایی بود که از روش‌های دست‌کاری جهت بهبود رتبه خود در موتورهای جستجو استفاده می‌کردند.

در سپتامبر ۲۰۱۳، کمپانی گوگل از آپدیت الگوریتم مرغ مگس‌خوار رونمایی کرد؛ یک الگوریتم که جهت بهبود پردازش زبان طبیعی گوگل و درک معنایی صفحات وب طراحی شد.

در سپتامبر سال ۲۰۱۶، گوگل اعلام کرد که گوگل پنگوئن به الگوریتم اصلی رتبه‌بندی گوگل ملحق شده‌است و دیگر آپدیت‌های آن اعلام نمی‌شود. از سال ۲۰۱۶ به بعد، الگوریتم پنگوئن گوگل دیگر به صورت لحظه‌ای نتایج جستجو را بررسی خواهد کرد.

ارتباط با موتورهای جستجو

تا سال ۱۹۹۷، طراحان موتورهای جستجو دریافتند که مدیران وب‌سایت‌ها تلاش می‌کنند که در موتورهای جستجوی آن‌ها رتبه بهتری داشته باشند. آنان همچنین متوجه شدند که برخی از مدیران وب، حتی رتبه‌های خود در نتایج جستجو را از طریق لبریز نمودن صفحات خود با واژگان کلیدی بسیار زیاد یا نامرتبط، دست‌کاری می‌کردند.

موتورهای جستجوی اولیه، نظیر آلتا ویستا یا اینفوسیک، الگوریتم‌های خود را جهت جلوگیری مدیران وب در دست‌کاری رتبه‌ها، مجدداً سازگار کردند.
در سال ۲۰۰۵، یک اجلاس سالانه موسوم به بازیابی اطلاعات خصمانه در وب (AIRWeb) صورت گرفت تا شاغلان و محققان مرتبط با موتورهای جستجو و بهینه‌سازی آن را به هم مرتبط سازد. نکته قابل‌تأمل در مورد موتورهای جستجو این است که نیاز نیست در تمام موتورهای جستجو سئو انجام دهید؛ جالب است بدانید ۹۷٪ جستجوهای کل دنیا از طریق موتور جستجوی گوگل انجام می‌شود و کارشناسان و مدیران وب تمایل بیشتری به سئوسازی روی گوگل داشته و سئو خود را متمرکز به گوگل می‌کنند.

روش‌ها

فهرست‌شدن

موتورهای جستجو از الگوریتم‌های ریاضیاتی پیچیده‌ای استفاده می‌کنند تا وب‌سایت‌های مورد جستجوی کاربر را حدس بزنند. در این نمودار، اگر هر حباب نشان‌دهنده یک وب‌سایت باشد، برنامه‌هایی که گاهی عنکبوت نامیده می‌شوند، بررسی می‌کنند که کدام سایت‌ها به کدام سایت‌های دیگر لینک شده‌اند که آن را با فلش‌هایی که بیانگر این امر است، نمایش می‌دهد. وب‌سایت‌هایی که لینک‌های ورودی بیشتر یا لینک‌های قوی‌تری می‌گیرند، فرض می‌شود که مهم‌تر باشند و همان چیزی مفروض می‌شوند که کاربر جستجو می‌کند. در این مثال، چون وب‌سایت B تعداد زیادی لینک ورودی دریافت می‌کند، در رتبه بالاتری در یک جستجوی وب قرار می‌گیرد و لینک‌های مکمل مانند وب‌سایت C، علی‌رغم اینکه فقط یک لینک ورودی دارد، یک لینک ورودی از یک سایت بسیار محبوب (B) دارد؛ درحالی‌که سایت E چنین لینکی ندارد. توجه: درصدها گرد شده‌اند.

موتورهای جستجوی پیشرو مانند جستجوگر گوگل، بینگ، یاهو! جستجو، بایدو از خزنده‌ها جهت پیداکردن صفحات مرتبط با نتایج جستجوی الگوریتمیک خود استفاده می‌کنند. صفحاتی که از صفحات ایندکس‌شده یک موتور جستجوی دیگر لینک می‌شوند، نیازی به ارسال ندارد زیرا به‌طور خودکار پیدا می‌شوند.

دو دایرکتوری عمده یاهو دایرکتوری، دی‌موز نیازمند ارسال دستی و بازنگری انسانی هستند. شرکت گوگل، Google Search Console را پیشنهاد می‌دهد که یک فید نقشه سایت اکس‌ام‌ال می‌تواند برای آن ایجاد و به‌طور رایگان ارسال شود تا این اطمینان حاصل شود که تمامی صفحات، خصوصاً آن‌هایی که با دنبال کردن خودکار لینک‌ها قابل‌شناسایی نیستند، قابل‌دستیابی هستند. در گذشته یاهو، یک سرویس ارسال پرداختی داشت که خزش را به ازای مقداری هزینه در هر کلیک تضمین می‌کرد؛ که در سال ۲۰۰۹، این سرویس متوقف شد
خزنده‌های موتور جستجو می‌توانند هنگام خزش یک وب‌سایت، به تعداد عوامل مختلفی توجه کنند. هر صفحه‌ای توسط موتور جستجو ایندکس نمی‌شود. فاصله صفحات از دایرکتوری اساسی ممکن است یک عامل در خزش یا عدم خزش در صفحات باشد.

جلوگیری از خزش

به‌منظور جلوگیری از محتوای نامطلوب در ایندکس‌های جستجو، مدیران شبکه می‌توانند به عنکبوت‌ها (به انگلیسی: Spider) دستور بدهند که فایل‌ها یا دایرکتوری‌های خاصی را درون فایل استاندارد robots.txt در دایرکتوری اصلی دامنه، مورد بررسی و خزش (به انگلیسی: Crawl) قرار ندهند. به‌علاوه، یک صفحه می‌تواند صراحتاً از پایگاه داده‌ها مورد جستجو خارج شود؛ که این عمل از طریق استفاده از متاتگ‌های مخصوص به ربات‌ها صورت می‌گیرد. هنگامی که یک موتور جستجو از یک سایت بازدید می‌کند فایل robots.txt واقع در دایرکتوری اصلی، نخستین جایی است که مورد خزش قرار می‌گیرد. سپس فایل robots.txt تجزیه شده و به ربات دستور داده می‌شود که کدام صفحات نباید مورد بررسی و خزش قرار گیرد. از آنجایی که خزنده موتور جستجو ممکن است که یک نسخه از این فایل را نگه دارد، گاهی ممکن است که صفحاتی مورد خزش قرار گیرند که مدیر شبکه تمایلی به آن‌ها ندارد. به‌طور معمول، صفحاتی که از خزش خارج می‌شوند عبارت‌اند از صفحات ورودی خاص، مانند صفحات مربوط به کارت‌های خرید و صفحات مربوط به محتوای شخصی کاربر، نظیر نتایج جستجوی حاصل از جستجوهای داخلی. در مارس ۲۰۰۷، گوگل به مدیران شبکه هشدار داد که باید از ایندکس‌شدن نتایج جستجوی داخلی جلوگیری کنند؛ زیرا این صفحات، هرزنامه جستجو هستند. در ادامه بحث گفتنی است: نبود سایت مپ نیز مانع از آن می‌شود که ربات درک درستی از صفحات شما داشته باشد. همواره یک سایت مپ خوب تأثیر بسیار مهمی در خزش درست و خواندن کامل صفحات شما را دارد.

افزایش برتری

از روش‌های مؤثر در برتری در لینک‌های گوگل، می‌توان به سوشیال‌ها (صفحات اجتماعی)، ساخت بک‌لینک‌های طبیعی در صفحات اجتماعی و ارسال دیدگاه در وب‌سایت‌های دیگران اشاره کرد. در این بین باید توجه کافی را داشته باشید تا از سایت‌های اسپم شده لینک نگیرید که باعث رشد منفی سایت شما خواهد شد. تکنیک‌های برتر دیگری که در این مقوله استفاده می‌شود، توجه به استانداردهای w3c است که سئوی وبگاه را بهبود بخشیده و کمک شایانی به آن وبگاه می‌کند. استفاده از گوگل‌سرچ‌کنسول و تنظیم آن، کمک ویژه‌ای به رشد وبگاه‌ها می‌کند.

روش‌های کلاه سفید در مقابل تکنیک‌های کلاه سیاه

روش‌های سئو را می‌توان به دو دسته طبقه‌بندی کرد:

  1. روش سئو کلاه سفید: این روش مطابق با استاندارهای موتورهای جستجو است.
  2. روش سئو کلاه سیاه: این روش مطابق با استانداردهای موتورهای جستجو نیست.

موتورهای جستجو در ستیز با روش کلاه‌سیاه بوده‌اند. دریافت نتیجه در روش سئو کلاه سفید زمان طولانی‌تری می‌برد اما ماندگارتر است؛ در حالی که دریافت نتیجه در در روش سئو کلاه سیاه اگر هم زودبازده باشد، موقتی است و هنگامی که موتورهای جستجو پی به این رفتارهای غیراصولی ببرند، وبگاه را جریمه خواهند کرد.

واژگان در پست‌ها و عنوان

موتورهای جستجو الگوسازی‌های هوشمندی برای جداسازی زبان‌های کشورهای مختلف از یکدیگر دارند. برای مثال فارسی و عربی هردو با خط عربی نوشته می‌شوند و حتی از نظر واژگان نیز تا اندازه قابل توجهی مشابه هم هستند. برای مثال در یک جستجوی خبری از سیستم درون ایران آن خبری بالاتر می‌آید که متن آن دارای واژگان دارای حرف‌ها و واژگان انحصاری فارسی به اندازه بالاتری باشد. در سال ۲۰۱۹ این تکنیک برای وبگاه‌های بالای یک میلیون در رده‌بندی الکسا نیز کاربردی بوده‌است و انحصاری بودن واژگان پست در زبان هدف وبگاه (مثلاً انگلیسی یا فارسی)، از سال‌های دور به عنوان یک الگوی معتبر کاربردی در نظر گرفته شده‌است. اینکه واژگان انحصاری در زبان کشور در پست‌ها و عنوان مهم هستند تأیید شده اما اهمیت کاربردشان در برچسب‌ها هرگز اشاره نشده‌است.

به‌عنوان یک استراتژی بازاریابی

سئو یک روش و استراتژی بازاریابی مناسب برای همه وب‌سایت‌ها نیست و بر اساس هدف گردانندگان یک وب‌سایت، استراتژی‌های بازاریابی اینترنتی دیگر مانند تبلیغات از طریق پرداخت کلیکی می‌تواند مؤثرتر باشد.

همچنین، یک کمپین تبلیغات اینترنتی موفق می‌تواند به ساختن صفحات وب دارای کیفیت بالا بستگی داشته باشد که به‌کارگیری نرم‌افزارهای تحلیل را ترغیب می‌نماید تا صاحبان سایت‌ها قادر به ارزیابی نتایج، و بهبود نرخ تبدیل سایت شوند. مهم‌ترین استراتژی بازاریابی محتوا تمرکز بر سئو است.

بازارهای جهانی

تکنیک‌های بهینه‌سازی شدیداً متناسب با موتورهای جستجو غالب در بازار هدف تنظیم می‌شوند. سهام بازار موتورهای جستجو از بازاری به بازاری دیگر و مانند وجود یک رقابت، تغییر می‌کنند. در سال ۲۰۰۳، دنی سالیوان اظهار کرد که گوگل حدود ۷۵ درصد کل جستجوها را انجام داده‌است. در بازارهای خارج از آمریکا، سهم گوگل اغلب بیشتر است و از سال ۲۰۰۷، گوگل در جایگاه موتور جستجوی غالب در سراسر جهان باقی مانده‌است.

از سال ۲۰۰۶، گوگل ۸۵ تا ۹۰ درصد سهم بازار آلمان را در اختیار دارد. درحالی‌که صدها شرکت سئو در آن زمان در آمریکا وجود داشت، فقط حدود ۵ مورد از آن در آلمان کار می‌کرد. از ژوئن ۲۰۰۸، بر اساس اعلام هیت‌وایس، سهم گوگل از بازار بریتانیا نزدیک به ۹۰ درصد بوده‌است. آن عدد از طریق چند کشور حاصل می‌شود.

از سال ۲۰۰۹، تنها چند بازار بزرگ وجود دارد که گوگل در آن‌ها، موتور جستجوی پیشرو نیست. در اغلب موارد، هنگامی که گوگل در یک بازار خاص پیشرو نیست، پشت سر یک رقیب محلی قرار دارد. قابل‌توجه‌ترین نمونه‌های این موارد، کشورهای چین، ژاپن، کره جنوبی، روسیه و جمهوری چک هستند که به ترتیب، بایدو، یاهو، ژاپن، ناور، یاندکس و شزنم پیش روی بازارها هستند.

بهینه‌سازی جستجوی موفق برای بازارهای بین‌المللی، ممکن است نیازمند ترجمه حرفه‌ای صفحات وب، ثبت یک دامنه با یک دامنه سطح بالا در بازار هدف و میزبانی است که آدرس IP محلی را فراهم نماید.

در غیر این صورت، بدون توجه به زمان، عناصر اساسی بهینه‌سازی جستجو، اساساً مشابه هستند.

از آیتم‌هایی که به سئو سایت مربوط می‌شود، می‌توان به بهینه‌سازی متا و کلمات کلیدی سایت، طراحی و واکنش گرا بودن قالب سایت، لینک‌های معتبر، محتوای به‌روز و منحصربه‌فرد و سرعت بارگذاری سایت اشاره کرد که با بهبود این موارد می‌توان رتبه بهتری در موتورهای جستجو کسب کرد.

پیشینه حقوقی

در ۱۷ اکتبر ۲۰۰۲، سرچ‌کینگ در دادگاه منطقه‌ای آمریکا در منطقه غربی اوکلاهاما، دادخواستی علیه موتور جستجوی گوگل داد. او ادعا کرد که تاکتیک‌ها و روش‌های گوگل در جلوگیری از هرز آگهی‌ها، موجب ایجاد یک تداخل زیان‌آور با روابط قراردادی شده‌است. در ۲۷ می ۲۰۰۳، دادگاه شکایت علیه گوگل را رد کرد؛ زیرا سرچ‌کینگ نتوانست ادعایش را که می‌توانست منجر به دریافت خسارت شود، اثبات کند.

در مارس ۲۰۰۶، کیندراستارت به دلیل رتبه‌بندی‌های موتور جستجوی گوگل، در دادگاه طرح دعوی کرد. پیش از این اقامه دعوی، وب‌سایت کیندراستارت از ایندکس گوگل خارج شد و ترافیک سایت تا ۷۰ درصد کاهش یافت. در ۱۶ مارس ۲۰۰۷، دادگاه منطقه‌ای آمریکا در منطقه شمالی کالیفرنیا (بخش سن خوزه)، شکایت کیندراستارت را رد کرده و این شرکت را مکلف به پرداخت بخشی از هزینه‌های حقوقی گوگل کرد.

جستارهای وابسته

۰ نظر موافقین ۰ مخالفین ۰ ۲۸ مرداد ۰۰ ، ۲۰:۱۵
رحمن زنگنه