بدأنا في الدرس السابق التحدث عن أول ثلاث خطوات من مراحل منهجية جمع المعلومات أو الاستطلاع المتبعة في هذه الدورة
اليوم سنقوم بالخطوة الرابعة وهي جمع المعلومات من المواقع الإلكترونية، المراد استهدافها أو ما تسمى Website Footprinting.
الاستطلاع على المواقع
هذه العملية هي لمراقبة وتحليل الموقع الإلكتروني للجهة الهدف بحيث نحصل من خلال مراقبتنا وتحليلنا له الحصول على عدة أمور منها:
الحصول على لغة البرمجة
التي تم برمجة الموقع الإلكتروني بها أو التقنية التي تم استخدامها، فيمكن أن نعرف ان هذا الموقع تمت برمجته ب PHP أو ASPاو GSP وغيرها من لغات البرمجة.
يمكننا معرفة إصدار اللغة. وهذا يهم لأن معرفة اللغة وإصدارها يمكننا من معرفة بعض الثغرات الخاصة بهذه اللغة وهذا الإصدار بالذات إن كانت تتوفر عليه.
نظام التشغيل
يمكننا معرفة نوع نظام التشغيل وإصداره ومعماريته، فيمكن أن نعلم النظام الذي يعمل على الخادم أنه لينكس اوبنتو 64 بيت وأن النظام الذي يعمل على الخادم هو ويندوز سيرفر 2012.
هيكلية الموقع
يمكننا من عملية جمع المعلومات معرفة المسارات أو مجلدات فرعية أو هيكلية الموقع الإلكتروني، مثل وجود مجلدات معينة داخله من عملي الاستطلاع.
فهذه المجلدات يمكن أن تحوي معلومات مثل النسخ الإحتياطي وملفات التسجيل ولوحة تحكم الأدمن.
Parameters
يمكننا استطلاع الموقع عن طريق parameters وهي التي مع Get Request أو Post Request وهما نوعان أساسيان يتم برمجة المواقع الإلكترونية بهما.
يمكن نستطلع الموقع أو نبحث عن parameters من نوع Get وهذه الأمور تفيدنا في البحث عن ثغرات في خطوات لاحقة.
Platform Scripting
يمكننا معرفة Scripting language أو Platform التي تم برمجة الموقع بها أو تم اعتماد برمجة الموقع عليه.
نظام إدارة المحتوى
يمكننا معرفة نظام إدارة المحتوى أو CMS المتبع في هذا الموقع.
فإذا فحصنا موقعاً الكترونيا وقمنا باستطلاع عليه وتبين أنه يعمل بجملة أو ووردبرس يجعل المخترع يقوم باستهداف الثغرات الخاصة بنظام إدارة المحتوى هذه.
فإن كانت جملة، يبحث عن الثغرات الخاصة بجملة ويبدأ بالبحث هل الموقع مصاب بإحدى هذه الثغرات ام لا.
الأمر مشابه في الووردبرس وغيرها من أنظمة إدارة المحتوى.
Contact Details
يمكننا من خلال الاستطلاع جمع بيانات حول Contact Details وهي بيانات المبرمج إن كان وضع بريده الإلكتروني واسمه رقم هاتفهم الموظفين الموجودين وبياناتهم الشخصية.
وبالتالي يمكننا البحث عنهم في مواقع التواصل الإجتماعية أو Google لمعرفة المزيد من المعلومات حولهم، وهذا سيساعدنا في شن هجمات هندسة إجتماعية.
يمكن للمخترق استخدام بعض الأدوات مثل Burp suite، Zaproxy، paros Proxy، Firebug وغيرها.
Mirroring
يمكن للمخترق أن يقوم بعملية المرآة وهو نسخ جميع محتويات الموقع منه إلى الهارد ديسك الخاص بالمخترق وبالتالي المخترق سيتصفح الموقع دون الحاجة للانترنت.
تفيد هذه العملية لعدة أمور:
يمكن سحب صفحات الدخول الخاصة بالموقع، ويمكن استخدام هذه الصفحة لتصيد الموظفين المتعاملين بهذا الموقع .
يمكن للمخترق من خلال العملية، البحث بشكل أفضل من استطلاع والبحث داخل الموقع وهي Online أو الاتصال بالموقع اتصالاً مباشراً.
يمكنه معرفة تفاصيل هيكلية المجلدات والتي لن يستطيع المخترق الإطلاع عليها بشكل مرئي وبالتالي عملية نسخ الموقع للهارد ديسك الخاص بالمخترق ستمكنه من الاطلاع والتصفح ومعرفة المجلدات ويمكنه من الحصول على مجلد معين يساعده في الوصول إلى بيانات مختلفة بسبب أهمية هذا المجلد.
من الأدوات التي سنتعامل معها هي HT Track وهي من أشهر الأدوات التي تقوم بعمل Mirroring للمواقع الإلكترونية .
HTML Source
يمكن للمخترق الاستطلاع وجمع المعلومات بعدة طرق، إما بفحص HTML Source الموجود، والذي يمكن أن يحتوي الكثير من المعلومات والتعليقات.
يمكن ان يكون مبرمج الموقع قد وضع معلومات هامة على شكل تعليقات بالخطأ ونسي أن يحذفها، فوضعها في بيئة التطوير وقبل أن ينشر الصفحات على الموقع نسي حذفها.
cookies
يمكن للمخترق فحص cookies والتعديل عليها، وهي بيانات يجمعها الموقع الإلكتروني من المستخدمين الذين يقومون بالتسجيل فيه.
وكي يتعرف على المستخدم في المرة القادمة التي يدخل فيها إلى الموقع.
Web Spiders
وهي عبارة عن برامج مثل GSA Email Spider، Web Data Extractor وهذه عناكب تتصفح جميع الروابط في الموقع وتستخلص منه بيانات.
فمثلاً GSA Email Spider يقوم بالبحث عن أي بريد إلكتروني داخل الموقع الهدف ويستخلص البريد ويظهر لك بشكل جدول ومرئي.
Web Data Extractor من خلاله يمكن البحث عن أرقام الهواتف والبريد الالكتروني والروابط وغيرها داخل الموقع الالكتروني.
موقع Archive.org
هو عبارة عن موقع يقوم بأرشفة نسخ مختلفة من أي موقع إلكتروني، فإن أردت تصفح الكتروني لشركة Microsoft مثلاً.
يمكن كما تحدثنا في الدروس السابقة أن شركة Microsoft.com قامت بنشر معلومات مهمة بتاريخ معين وبعد ذلك قامت بحذفها فهذا الموقع يؤرشف هذه البيانات.
وأنت باستخدامك لهذه البيانات بإمكانك الرجوع للخلف لمعرفة كيف كان موقع مايكرو يظهر للعلن وبالتالي معرفة البيانات التي تم حذفها من الموقع بعد ذلك.
تطبيق عملي على Windows 7 Attacker
الآن سأدخل بجهاز Windows 7 Attacker ، وسأقوم بالتعامل مع برنامجين، الأول هو HTTrack Website Copier، والثاني WebData Extractor .
هو برنامج مجاني يتم تحميله والتعامل معه بشكل مجاني، WebData Extractor يوجد منه نسختين إحداهما مجانية ونسخة مدفوعة.
HTTrack Website Copier
واجهة رسومية بشكل عادي، ويوجد منه نسخة على Kali Linux ولكنها نسخة يتم تنفيذها عن طريق سطر الأوامر.
هذه الواجهة الرسومية الخاصة ب HTTrack نضغط التالي، سيطلب مني إسم المشروع، وهو يعمل Mirroring أي ينسخ اي موقع الكتروني ويخزنه على جهازك.
فلو قلنا له Project، ومساره الذي سأقوم بتخزين الملفات عليه هو سطح المكتب، ومن ثم التالي، إذا كنت سأقوم بنسخ أكثر من موقع إلكتروني أضع جميع الروابط في مربع الحوار وكل منها في سطر خاص، أو Add Website مثلاً:
Test/php.vulnweb.com
إذا طلب الموقع الدخول في إحدى صفحاته يمكن أن أدخل إسم المستخدم وكلمة المرور الخاصة بها وأضغط موافق.
إذا كان لديك خيارات من النوع التي ستقوم بإدخالها إن كان لديك Proxy Server ستشبك عليه أو ترتبط عن طريق Proxy كي تحمي نفسك في عملية النسخ.
أو بعض أنواع الملفات التي ستقوم بتحميلها، فتطلب إضافتها داخل الرابط، مثل:avi asf mp3 mp2 وغيرها من امتدادات الملفات تحضرهم لتخزنهم عندك.
تستطيع أن ترى ما الأمور كاملة Limitation إذا أردت Maximum Mirroring Depth والمقصود فيه أنه لو عندنا Test/php.vulnweb.com
هذا الموقع كان به مجلد فرعي اسمها XYZ فإن كان بداخلها مجلد فرعي ثاني وثالث، فبدل أن تكون عمليتك لا نهائية، يمكنك أن تحدد له في Root Directory فتعطيه واحداً مثلاً.
سنتركه على الإفتراضي. وهناك خصائص كثيرة بداخله يمكنك أن تطلع عليه، برنامج كبير جداً ومفيد للأشخاص الذين يريدون تصفح المواقع الإلكترونية بشكل Offline.
أضغط Next ثم Finish.
ألاحظ الآن بدأت عملية جلب الملفات، وأنه أنشأ مجلداً بعد انتهاء العملية. وأضغط على Finish.
في المجلد أنزل جميع الملفات وجميع الصور والفلاش، وهو يحمل الموقع ليس بلغة البرمجة أي ليس ملفات PHP.
بل بالنهاية يقوم بطلب على الموقع صفحة معينة، والخادم سيترجمها ويرسلها إلى المتصفح الذي هو بحالتنا هنا HT Track ويرسلها له على شكل HTML Javascript.
وهكذا نقدر أن نتصفح الموقع من جهازنا وأي تعديل هنا لن يتعدل على الموقع.
WebData Extractor
كما نرى من شاشته يستطيع أن يفك Extract لإيميلات أرقام هواتف أرقام فاكسات Metadata داخل الموقع الالكتروني تستطيع أن تستخلص منه
تستخلص URLs الروابط، وتستخلص الكثير من الأمور.
كي نبدأ أضغط جديد، أي مشروع جديد، فأكتب: Test/php.vulnweb.com هذا الموقع الالكتروني الذي سيزوره.
في أحد قوائم نافذة البرنامج يوجد فلاتر: Filter Data ، Filter Text، Filter Url وعدة أمور. أهمها Parser .
Parser
عن طريق Parser يستخلص أرقام الهواتف وأي شيء يأتي قبله كلمة Tel أو Tel: يعرف أن ها رقم هاتف فينسخه.
إن عرفتم موقعاً الكترونياً وكان باللغة العربية وتريدون إضافة له أي رقم هاتف، فتضيفون كلمة هاتف في آخره. وتضغط Enter وتضيف شيئاً آخر وهكذا.
ذات الشيء بالنسبة للفاكسات، تضع في العمود الأرقام الافتراضية والبريد نفس المبدأ. أنا سأتركه على الإفتراضي وأضغط موافق.
بعد الانتهاء أضغط Start، ويطلب مني أن أختار البيانات التي سيفكها، وأنا أقوم بفك فقط البريد الإلكتروني، أو أضيف الهواتف أو الفاكسات أو تختار ما تريد.
بعد ذلك تبدأ العملية، ويمكن أن تأخذ وقتاً طويلاً، لكني الآن لا أريد أن أكمل العمل بسبب الوقت الطويل الذي ستأخذه.
في المواقع الالكترونية هناك أرقام هواتف كثيرة، وبريد الكتروني وغيرها، فأنت تسهل على نفسك،وبدلاً من دخولك إلى كل صفحة، تقوم بطلب الأمر من البرنامج أن يدخل الموقع الهدف ويجمع لك الإيميلات وأرقام الهواتف وكذا.
إن الحصول على أرقام الهواتف والإيميلات يفيد في شن هجمات الهندسة الاجتماعية أو من خلالهم أحصل على أمور أخرى متقدمة.
بهذا يكون البرنامج قد انتهيت منه.
العمل من جهاز Kali Linux
أدخل على Kali Linux وأنظر لبعض الأدوات الخاصة ب الاستطلاع للمواقع. أشغل FireFox ومن الأدوات Add Ons، Extensions.
أحمل برنامج Cookies Manager+ ، ثم أقوم بإعادة إقلاع المستعرض.كي يعمل بشكل صحيح.
أعود لأرى AddOns وهناك مجموعة من الأدوات، سنبدأ بالبداية:
Wappalyzer
أدخل على الموقع Test/php.vulnweb.com ألاحظ ظهور إشارة وهي خاصة ب Wappalyzer وهي تعمل بأن تظهر لي التكنولوجيا الخاصة Website و Backend server التي يتم برمجة وتصميم الموقع الالكتروني فيها.
فألاحظ أن تظهر لي أنه تم تصميمه في Dreamweaver Editor ، والتعامل مع HTML والكود خاصته، وبرمجته.
وسأدخل على موقع آخر وليكن Microsoft لأرى الاختلافات التي ستظهر،وستظهر فعلاً أمور مختلفة لأن خادم Microsoft مختلف وال Backend مختلفة وهناك تقنيات تم استخدامها مختلفة عن ذاك الموقع.
ظهرت لي عدة أمور مختلفة من نسخة إصدار HTTP أنها الثانية ويمكننا حينها اكتشاف الثغرات ونحاول أن نستغلها. وعدة أنواع الروابط.
لو دخلت على موقع WordPress.com سيظهر لنا مجموعة أمور أيضاً وواحدة منها نوع CMS، وكما ذكرت سابقاً أن المخترق يمكنه من خلال عملية جمع المعلومات.
ومعرفة نوع cms أي نظام إدارة المحتوى، يمكن من خلالها معرفة نوع النظام إن كان يعمل مع الوورد برس.
وبالتالي يمكنني أن أستغل الثغرات الخاصة بالووردبريس وأفحصها على الموقع الالكتروني، ونفس الشيء بالنسبة للجملة فإنه يستطيع أن يفحص التكنولوجيات، ونوع الخادم وغيرها.
أدخل على موقع Test/php.vulnweb.com ثانية، وفي ملف url يوجد صفحة تسجيل الدخول Login، ومكتوب أنها للفحص فقط، وسأقوم بفحص Test To Test.
بعد ذلك قمت بوضع كلمة المرور، أقوم بإدخالها وهناك Session له فيها عدة طرق لتحتفظ فيه واحدة منهم لتخزنها في cookies.
ولأتأكد إن قام الموقع بتخزين Session، ب cookies وأرى ما القيم داخلها هناك عدة ادوات، إما عن طريق cookies Manager، أو cookies Manager+.
Cookies Manager
في بعض الحالات يمكن أن يخزن مطور cookies بقيمة cookies أو بالبيانات الخاصة بها نوع المستخدم.
فمثلاً موقع الكتروني فيه مجموعة مختلفة من المستخدمين، مثل المنتديات فيها أنواع user عادي أو متوسط أو متحكم.
فيخزن قيمة النوع هنا، وأنت تقدر أن تغير من القيمة هنا بحيث أن تحصل على صلاحيات أعلى، وهذا نوع من أنواع التعديلات على cookies.
Life HTTP header
من الموقع الالكتروني هناك مجموعة أدوات مثل Life HTTP header فإن شغلته يظهر لي الصفحة التي طلبتها، ويعطيني البيانات التي تم تمريرها مثل إسم المستخدم وكلمة المرور.
وتظهر في الرابط ومعلومات أخرى يمكنك تحليلها والاستفادة منها.
Tamper Data
يقوم بنفس الأمر في Life HTTP header لكن بشكل مختلف، وتستخدمه مثله. أتعامل معه بالطريقة التالية:
بأن أدخل إسم مستخدم وكلمة مرور وأشغلها.
في بعض الأحيان في عملية Login عندما يريد المخترق أن يختبر اختراقها، يكون المطور قد تحقق من القيم المدخلة.
فيمنع أحرف معينة وقد برمج الموقع بحيث أن تكون عملية التحقق عن طريق javascript code أو عن طريق Ajax code وبالتالي يمكن للمخترق أن يدخل معلومات صحيحة.
وعندما يقوم ب Login وهو قد شغل Tamper Data فتظهر له شاشة تأكيد وتظهر فيه قيمة المستخدم وكلمة المرور وبعد تجاوز عملية التحقق يمكنه إدخال قيمة ويضغط موافق.
FireBug
تقوم بنفس عمل Tamper Data ولكن بأداة ثانية وفي الغالب تستخدم للمطورين او المصممين يحللوا موقعهم ويروا إن حدثت مشكلة في التصميم.
ويمكن أن تستخدم من قبل المخترقين.
Archive.org
تكلمنا عنه سابقاً بأنه يقوم بأرشفة نسخ مختلفة من المواقع الإلكترونية. فمثلاً سأبحث عن Microsoft.com
يظهر لي برسم بياني التعديلات التي حدثت لموقع Microsoft وبدأت أرشفة الموقع منذ 1996 وكيف كان شكله في ذلك العام.
يمكن أن أطلب منه استكشاف أحد المناطق وكيف كان شكله، فتظهر رزنامته كاملة، والألوان تعني التعديلات التي حدثت.
ويعطي SnapShots فأختار أحدهما لأرى كيف كان شكل الموقع في ذلك التوقيت مثلاً.
ويستخدم هذا لرؤية بيانات الموقع، وكيف تم أرشفتها قبلاً وما التغيرات التي حدثت ويمكن الحصول على بيانات تم حذفها من الموقع.
Email footprinting
المرحلة الخامسة هي جمع المعلومات و الاستطلاع للإيميلات الخاصة بالضحايا، بالصورة تظهر قيمة المصدر للبريد الإلكتروني كيف ومن ولمن ، والعنوان وكل معلوماته.
يمكن رؤية المعلومات وتحليلها، ويمكن الدخول لموقع مثل IpAddressLocation.org لتحليل البيانات ومواقع مشابهة.
Competitive Intelligence
ويعني جمع المعلومات والاستطلاع عن طريق المتنافسين.
هناك عدة أمور يمكننا جمعها فمثلاً سنختبر إختراق شركة معينة ويمكن أن نجمع معلومات الشركة من منافسيها.
فيمكن لشركة أن تصنع منتجات معينة أو برامج معينة لها منافسين، وهم يحاولن دائماً تسريب معلومات لبعضهم.
فيمكننا من خلال منافسيها والمعلومات التي يصدرونها، تجميع معلومات كثيرة.
فيمكن مثلاً نجمع من خلال الإعلانات للمواقع وإعلانات الوظائف ومواقع البحث، ومن المنافسين وهل ذكروا بيانات عنهم.
يمكن من خلال مؤتمرات وصحف وتقارير موجوة إن كانت سنوية الإصدار. كتقارير مالية وأرباح وغيرها. وتحوي بيانات يمكن أن تكون مفيدة لي كمخترق أن أستفيد من الاستطلاع عليها.
يمكن من خلال الهندسة الاجتماعية وغيرها.
محمد خريشة / الاستطلاع