روش رعایت قوانین برای جلوگیری از بسته شدن سایت

irdavidnet

Banned
البته به زودی این مقاله رو تکمیل تر می کنم ، فعلاً دارم در موردش و راه کارهاش تحقیق می کنم
 

ali-k

Member
تا اینجا مطالب خوبی دوستان گفتند که اکثرا روش های دور زدن سیستم بود :) پیش فرض این کارها مورد دار بودن سایت هست که ما بخوایم سایتمان را با این روش ها چند ماه بیشتر زنده نگه داریم :)

اگرفرض را عوض کنیم یعنی ما اصلا نمی خواهیم سایت مورد داری داشته باشیم ولی برامون مهمه که بی دلیل في*لت**تر نشیم برای جلوگیری و تشخیص چه کارهایی را پیشنهاد می کنید ؟

یک راهی که دوستان اکثرا گفتند تشخیص کلمه های مورد دار از روی یک لیست ثابت و تبدیل به عکس هست خب این راه هوشمند نیست و کلمات مورد دار هم لیست کاملشان در دسترس نیست :) و ضعف شدید این روش اول از همه پردازش هست که برای بهینه کردن میشه یکبار انجام بگیره ! ولی نمایش ضعفی هست که بهینه نمیشه :) هربار متن نمایش داده بشه به تعداد کلمات ناجوری که داخلش هست عکس های کوچیک قراره لود بشه که واقعا کند میکنه نمایش صفحه را و همچنین پهنای باند زیبایی را اگر بازدید زیادی دارید از دست خواهید داد :) در عین حال فعلا همین راه را داریم .
خب سر این روش زیاد بحثی نکنیم چون دنبال این روش نیستم :) درمان موقته :)

راه حل دیگه ای برای تشخیص که مثلا اگر کاربری پستی ارسال میکنه یا کامنت میزاره یا هر ورودی دیگه ای که توسط کاربران هست را بتوانیم بررسی کنیم ؟؟

یه پروژه هوش مصنوعی قبلا انجام دادم که متن را میگیره و تشخیص میده که موضوع متن چیه :) مثلا شما یک متن را کپی میکنید داخل برنامه و برنامه میگه مثلا متن شما در مورد ورزش هست یا متن شما در مورد سیاست هست ... فکر کنم با کمی تغییر بتوانم چیزی بنویسم که وب سایت شما را بگیره و با خواندن چند صفحه از وب سایتتان بگه که ف،یل،تر می شید یا نه :cool: یا مثلا متنی که گذاشتید مصداق فی،لت،ر شدن هست یا نیست :)
 

ali-k

Member
یکی از اصولیترین راه حل های این قضیه جلوگیری از ورود روبات هوشمند مخابرات است :
این روش که مینویسم صرفا برای روبات مخابرات نیست برای تمام روبات ها استفاده میشه در اخر مزایای دیگه اش را مینویسم

۱- درصورتیکه آی پی سرور ها را میدانید جلوی ورود آنها را بگیرید راحتترین راهش بستن آی پی آنها از سی پنل هست (در این مورد از آی پی اطمینان ندارم ولی چیزی که اخیرا دیدم یک روبات باهوشه که هربار از یک آی پی و با یک نوع معرفی جدید میاد و حدس میزنم خودشون باشن:)

۲- بستن دسترسی روبات با بررسی user agent که اگر دوستانیکه قبلا فی.لت.ر شدن اطلاعات در این مورد در اختیارمون بزارن میتوانیم خیلی بهتر تشخیص بدیمشون و راهشون ندیم :)

توی دو راه قبلی فرض کردیم که این روبات هوشمند واقعا احمق باشه :) یا اینکه روبات هوشمند استانداردهای وب را رعایت کرده باشه و درست حسابی خودش رو معرفی کنه که ما جلوش رو بگیریم :) ولی از اونجایی که ایرانی ها نوشتن و باهوشن حتما با استاندارد روبات ها نمیان و مثل ویزیتور معمولی خودشون رو معرفی میکنند با این روش میتوانید تشخیص بدیدشان :

هر کاربری که وارد سایت شد یک session بهش اختصاص بدید و بعد در بالای صفحه سایتتان یک عکس خیلی خیلی کوچک در حد یک pixel قرار بدید که توسط چشم به سختی با ذره بین قابل دیدن هست :D بعد این عکس را لینک کنید به یک صفحه مثلا پی اچ پی :) دفت کنید این لینک را در بالا صفحه بزارید تر جیحا آدرس عکس و آدرس لینک و alt , title لینک و عکس را کلمات مورد دار انتخاب کنید تا روبات حتما تعقیب کنه لینک را :) خب حالا اینجا روبات رو میندازید توی دام :)
چون عکس خیلی کوچیک هست و در حد یک pixel هست قابل دیدن نیست و هیچ بازدید کننده انسانی هیچوقت روی این لینک کلیک نمیکنه ولی روبات چون داره سایت شما رو بررسی میکنه حتما این لینک را دنبال میکنه و شما خیلی ساده میفهمید که روبات امده به سایت و به محض ورود به صفحه دام دسترسیش را به سایت ببندید و اطلاعاتش را ذخیره کنید تا دفعه دیگه هم راهش ندید به سایت :)

این روش ممکنه جلوی روبات گوگل رو هم بگیره پس برای بعضی روبات ها مثل گوگل و یاهو بقیه استثنا درنظر بگیرید .
مزیت ها دیگه این روش جلوگیری از سو استفاده انواع روبات ها و اس‍‍‍پمر های خارجی هست که اگر روزی دیدید کلی پهنا باند دارید از دست میدید و کلی ویزیتور توی امار هست ولی سایت واقعا بازدید کننده نداره بدانید که کار روبات های خارجی هست و با این روش جلوشان را میتوانید بگیرید :)

تجربه من روی یکی از سایت ها واقعا زیبا بود تقریبا روزانه ۱۲۰۰ مگ پهنای باند مصرف میشد که با بستن دسترسی روبات ها و اس‍پمر ها و دزدهای محتوای سایت به ۸۰۰ مگ در روز مصرف پهنای باند کاهش پیدا کرد :)
 

irdavidnet

Banned
درسته ! زدید تو هدف .
برای اینکه فیلتر نشیم :
1- دسترسی روبات ها رو ببندیم
2- فیلترینگ کلمات
3- فیلترینگ کلمات 2 ( اگر فردی با یک کلمه خاص کامنت گذاشت ، نظرش حتماً باید تایید شه)
4- RSS تونو دقت کنید ... جدیداً RSS می بینن .
5- می تونید اصلاً سایتتونو پراکسی کنید . (یعنی سایتتونو با iframe یه پراکسی باز کنید ، این موتورها به iframe کاری ندارن «داخلش می رن ، اما باید لینک جدا بزنن)
6- می تونین سایتتونو با ajax لود کنید . (یه req به یه آدرس بفرستید ، مثلاً X.php ، داخل x.php هم کلی مطلب باشه ...)
7- apache تونو از پرت 80 بکنید ، بندازید روی پرت دیگه
8- GD کنید کلمات رو
9- نصب کوکی
10- با نصب کوکی و کاربرد جاوا بفهمید اگر report کرد ، دیگه دسترسیشو ببنید .
» کار موتور اینطوریه :
1- اول میاد تو سایت می گرده دنباله یکسری کلمات
2- ارائه گزارش dci.ir
3- موتور دوم می آید ، گزارش نهایی
4- فی.............لیت.ر
تمام شد !

|| نکته جالب ناک ، 5 تا آی پی ded بخرید ، هر روز ip ها رو تو چرخش بذارید || سرور تون رو روی این سایت های رایگان بذارید ، در صورت فیلتر شدن DNS ها رو عوض کنید ، یه ایمیل بزنید به [email protected]
 

جدیدترین ارسال ها

بالا