Crawler Si Bot Pencarian
Tugas Softskill
Assalamu’alaikum..
PengertianWeb Crawler
Dalamrangka tugas softskil, kami satu tim yg terdiri berdasarkan 5 orang ditugaskan untuk mencari beberapa ulasanseperti Analisis Web, Search Engine, Web Archiving,dan Web Crawlers . Untuk Pembahasan yg pertama ini galat satunya yangakan kita bahas merupakan Web Crawler. Mungkin kalian bertanya Tanyasebenernya Web Crawler itu apa sih ? Trus manfaatnya buat apa ? Oke daripada kalian tambah bertanya-tanya, mending langsung aja ya disimak pembahasannya..
WebCrawler bisa juga diklaim sebagai bot pencarian atau spider artinya program yangberfungsi menelusuri web yang ada di dunia maya dan berkunjung ke web-webtersebut atas nama search engine, hasil dari spider ini buat menemukan linkbaru dan laman baru atau website baru. Biasanya pekerjaan bot adalahmengindex dan menyimpan data di database para pemilik botnya.
Tentusaja Web Crawler ini memiliki fungsi pula, nah disini Ada 2 fungsi utama WebCrawler, yaitu :
1.Mengidentifikasikan Hyperlink.
Hyperlinkyang ditemui pada konten akan dibubuhi dalam daftar visit, diklaim jugadengan istilah frontier.
2.Melakukan proses kunjungan/visitsecara rekursif.
Darisetiap Hyperlink, web crawler akanmenjelajahinya dan melakukan proses berulang, dengan ketentuan yg disesuaikandengan keperluan aplikasi. Untuk gambarnya mampu dilihat dibawah :
Lihat Gambar:
ArsitekturWeb Crawler
Cara Kerja Web Crawler
Crawler diawali dengan adanya daftarURL yg akan dikunjungi (seeds). Setelah crawler mengunjungi URL tersebut,kemudian mengidentifikasi semua hyperlink menurut halaman itu dan menambahkankembali ke dalam seeds (Crawl Frontier). Setelah web crawler mengunjungi laman-laman web yg dipengaruhi didalam seeds, maka web crawler membawa data-data yang dicari sang user kemudian menyimpannyake sebuah storage.
Webcrawler dapat dibuat buat mencari keterangan yg berhubungan dengan topictertentu saja. Web crawler yg hanya mengumpulkan topic eksklusif saja disebuttopical web crawler. Web crawler dimulai menggunakan sekumpulan URL, lalu didownload setiap halamannya, menerima link dari setiap page yg dikunjungikemudian mengulangi pulang proses crawling dalam setiap link laman tadi.untuk gambar cara kerjanya lihat dibawah :
Lihat Gambar:
Oke izin kalian tambahngerti kami akan menaruh BeberapaContoh dari Web Crawler, simak ya.. :
1.Teleport Pro
Salah satu perangkat lunak web crawler untukkeperluan offline browsing, perangkat lunak ini cukup popular, terutama dalam saatkoneksi internet nir semudah serta secepat sekarang. Software ini berbayar danberalamatkan pada //www.tenmax.com/
dua.HTTrack
Ditulis dengan memakai bahasaPemrograman C, merupakan software yg bisa mendownload konten website menjadisebuah mirror pada harddisk, supaya dapat dicermati secara offline. Yang menarikdari perangkat lunak ini free serta dapat didownload dalam website resminya pada //www.httrack.com .
tiga.Googlebot
Web crawler untuk membentuk indexpencarian yang dipakai sang search engine google. Jika website Anda ditemukanoleh orang lain melalui Google, bias jadi itu dari Googlebot.
4.Yahoo! Slurp
Ini merupakan search engine Yahoo,teknologinya dikembangkan oleh Inktomi Corporation yang diakusisi oleh Yahoo!.
lima.YaCy
Berbeda menggunakan yg lain , YaCydibangun atas prinsip P2P (peer-to-peer), di develop menggunakan java, dandidistribusikan dalam beberapa ratus mesin komputer (YaCy peers). Tiap peer dishare dengan prinsip P2P buat menyebarkan index, sehingga nir memerlukan servercentral. Contoh search engine yg menggunakan YaCy artinya Sciencenet (//sciencenet.fzk.de ), buat pencariandokumen di bidang sains.
Sampaidisini dulu ya pembahasan tentang Web Crawler-nya.. Apabila ada kata-kata yangsalah mohonn dimaafkan.. Nantikan pembahasan lainnya ya tentang Analisis Web,Search Engine, Web Archiving.. Terima kasih... ^^
Tim Kami :
1. Ayu Amizah ( 51411317 )
2. Mahdhika Juliansyah ( 54411246 )
tiga. Muhammad Faris Al Fatih ( 54411827 )
4. Rachman Aji Putra Kusumaa ( 58411572 )
lima. Tio Pratama Agung ( 57411119 )
Wassalamu'alaikum...
Lihat Sumber: