Enjin carian vs penyemak imbas
Internet telah menjadi bahagian bersepadu dalam hidup kita. Memandangkan keperluan untuk maklumat menjadi lebih besar dengan pembangunan masyarakat, Internet meningkat untuk mengisi peranan penyedia maklumat. Internet berfungsi sebagai platform untuk berkongsi dan menerbitkan maklumat dari mana saja di dunia. Tahap akses ini adalah salah satu sebab mengapa jumlah hiperteks dan hipermedia yang belum pernah terjadi sebelumnya terkumpul di web. Masalah yang ditimbulkan oleh kesan ini adalah kesukaran untuk mengelakkan yang tidak diingini dan mencari maklumat yang diperlukan dari web.
Lebih banyak mengenai penyemak imbas web
Pelayar Web adalah aplikasi perisian yang dipasang di komputer pengguna untuk memperoleh, mentafsirkan dan menyampaikan maklumat dari World Wide Web. Penyemak imbas web pertama yang dibangunkan oleh pencipta Internet, Sir Tim Bernes Lee, pada tahun 1990 -an dipanggil Worldwide Web (kemudian menjadi Nexus). Walau bagaimanapun, penyemak imbas mozek (kemudian Netscape) yang dibangunkan oleh Marc Andressen merevolusikan pelayar dengan menjadikannya lebih mesra pengguna.
Operasi asas penyemak imbas web adalah seperti berikut. Sumber Web terletak menggunakan pengenalan khusus yang disebut Locator Sumber Universal (URL). Bahagian pertama URL yang disebut "Pengenal Sumber Universal" menentukan bagaimana URL akan ditafsirkan. Ini biasanya merupakan protokol sumber penyemak imbas yang cuba diakses, seperti HTTP, HTTPS atau FTP. Setelah maklumat diambil dari sumber, komponen penyemak imbas yang dipanggil "Enjin Layout" Tukar HTTP ke Markup HTML untuk memaparkan dokumen Hypertex Hypermedia interaktif. Pelayar boleh menawarkan ciri tambahan seperti video flash dan applet Java dengan memasang pemalam masing-masing ke penyemak imbas, membolehkan kandungan dilihat walaupun kandungannya tidak hypertext.
Lebih banyak mengenai enjin carian
Enjin Carian adalah aplikasi web untuk mencari dan mencari maklumat atau sumber di World Wide Web. Dengan pertumbuhan sumber -sumber di www, mengindeks kandungan dengan cara yang mudah diakses menjadi semakin sukar. Penyelesaian yang dibentangkan untuk masalah ini ialah enjin carian web.
Enjin carian web beroperasi pada tiga langkah berikut. Web merangkak, mengindeks dan mencari. Web Crawling adalah proses mengumpul maklumat dan data yang terdapat di World Wide Web. Ini biasanya dilakukan dengan perisian automatik yang disebut crawler web (juga dikenali sebagai labah -labah). Crawler Web adalah program yang melaksanakan algoritma untuk mendapatkan maklumat dari setiap laman web dan ikuti pautan yang berkaitan secara automatik. Maklumat yang diambil akan diindeks dan disimpan dalam pangkalan data untuk pertanyaan kemudian. Crawler mengambil dan indeks maklumat mengenai kandungan halaman, seperti kata -kata dari teks, URL untuk hyperlink dan medan khas di halaman yang dipanggil meta tags.
Apabila permintaan atau pertanyaan carian dibuat untuk perincian tertentu atau halaman di web, melalui pelayar web, enjin carian mengambil maklumat yang berkaitan dari pangkalan data yang diindeks dan memaparkan hasilnya sebagai senarai sumber yang berkaitan di pelayar web.
Penyemak imbas dan enjin carian
• Pelayar web adalah aplikasi yang dipasang pada komputer pengguna, sementara enjin carian adalah aplikasi web yang beroperasi pada pelayan yang disambungkan ke Internet.
• Pelayar web adalah aplikasi untuk mendapatkan dan memaparkan maklumat dari Internet, sementara pelayar web adalah aplikasi untuk mencari maklumat di web.