Pengumpulan Informasi dengan situs online

 


Halo assalamu alaikum dan selamat datang di tutorial saya pendigankali ini saya akan menjelaskan tentang Pengumpulan Informasi.

Dalam tutorial ini kami akan mengumpulkan informasi tentang situs web kami menggunakan beberapa situs web online yang tersedia secara gratis.

Kami akan menggunakan situs web berikut dalam tutorial ini untuk menangkap informasi tentang target kami.

1. Netcraft
2. YouGetSignal
3. Archive.org
4. robots.txt 


Kemudian hal terakhir yang akan kita gunakan adalah file robots.txt untuk melihat jalur, yang ingin disembunyikan admin web dari bot dan tidak menginginkannya untuk menjadi publik. Semua informasi semacam itu dapat berkali-kali memberikan dorongan untuk pengujian Anda. Saya akan menjelaskan masing-masing dengan contoh satu per satu.

Anda juga dapat melihat tutorial video untuk pemahaman yang lebih baik.

1. Netcraft
Website ini memberi kami informasi rinci tentang web hosting dan Server dengan informasi rinci tentang apa yang sedang berjalan di server bersama dengan IP, informasi whoIs, teknologi sisi Server, dll. Semua Informasi ini harus disimpan dalam laporan Anda sehingga bahwa Anda dapat menggunakan semua informasi untuk menemukan tes yang tepat dan menentukan permukaan serangan yang merupakan bagian terpenting dari sebuah penetrasi.

2. YouGetSignal Banyak kali domain tertentu yang Anda targetkan tidak begitu rentan atau Anda tidak dapat menemukan permukaan serangan yang tepat, dalam hal ini Anda dapat melakukan pencarian domain IP Terbalik dan menemukan domain lain di server yang mungkin rentan dan memungkinkan Anda untuk masuk ke Server.

Sedemikian rupa Anda dapat membuat jalan menuju ke situs web.

3. Archive.org
Archive.org adalah situs web yang menyimpan sejarah banyak situs web melalui internet. Seringkali Anda dapat memperoleh beberapa informasi yang tidak lagi ditampilkan di situs web karena beberapa masalah keamanan tetapi sesuatu yang terkait dengan itu masih dapat ditemukan di sana.

4. Robots.txt
Robots.txt adalah file yang digunakan oleh situs web untuk melarang perayap merayapi beberapa data sensitifnya atau panel admin. Dan itu bisa dilihat secara publik sehingga bisa berguna jika kita menemukan data itu dan menggunakannya nanti.

Setelah semua ini kita dapat pindah ke domain target kita dan melihat file robots.txt, yang digunakan oleh Admin web atau beberapa Aplikasi Web untuk menyembunyikan barang pribadi dari bot web. Tetapi melihatnya mungkin memungkinkan Anda untuk mendapatkan jalur dari semua konten itu dan kemudian kami dapat melihat halaman atau jalur itu dan menemukan beberapa konten tersembunyi yang juga bisa dalam bentuk terbuka karena kebodohan admin web. 

wassalam..