Riwayat Optimasi Mesin Pencari

updetan.com merupakan portal berita yang ditujukan untuk hiburan, merangkum semua informasi seputar teknologi, Sosial media, gadget, olahraga hingga berita selebriti Indonesia maupun mancanegara yang di himpun dari berbagai sumber yang bisa dipercaya dan dipertanggung jawabkan. Kami akan terus berupaya untuk menyajikan berita yang menarik dan seakurat mungkin, dengan update isi dan materi setiap hari.

Webmaster hari ini menghabiskan cukup banyak waktu untuk mengoptimalkan situs web mereka untuk mesin pencari. Buku telah ditulis tentang optimasi mesin pencari dan beberapa jenis industri telah dikembangkan untuk menawarkan layanan optimisasi mesin pencari kepada klien potensial. Tapi dari mana semua ini dimulai? Bagaimana kita bisa berakhir dengan dunia SEO tempat kita hidup hari ini (dari sudut pandang webmaster terlihat)?

Seorang pria bernama Alan Emtage, seorang mahasiswa di University of McGill, mengembangkan mesin pencari pertama untuk Internet pada tahun 1990. Mesin pencari ini disebut “Archie” dan dirancang untuk mengarsipkan dokumen yang tersedia di Internet pada waktu itu.

Sekitar setahun kemudian, Gopher, mesin pencari alternatif untuk Archie, dikembangkan di University of Minnesota. Dua mesin pencari ini memicu lahirnya apa yang kita gunakan sebagai mesin pencari saat ini.

Pada tahun 1993, Matthew Gray mengembangkan robot mesin pencari pertama – World Wide Web Wanderer. Namun, butuh sampai 1994 bahwa mesin pencari seperti yang kita kenal sekarang lahir. Lycos, Yahoo! Dan Galaxy dimulai dan seperti yang Anda mungkin – dua dari mereka masih ada sampai sekarang (2005).

Pada tahun 1994 beberapa perusahaan mulai bereksperimen dengan konsep optimisasi mesin pencari. Penekanannya adalah semata-mata pada proses pengiriman pada saat itu. Dalam 12 bulan, paket perangkat lunak pengiriman otomatis pertama dirilis.

Tentu saja tidak butuh waktu lama sampai konsep mesin pencari spamming ‘diciptakan’. Beberapa webmaster dengan cepat menyadari bahwa mereka dapat membanjiri dan memanipulasi halaman hasil pencarian dengan mengirimkan situs mereka secara berlebihan. Namun – mesin pencari segera melawan dan mengubah hal-hal untuk mencegah hal ini terjadi.

Segera, pengoptimal mesin pencari dan mesin pencari mulai memainkan semacam permainan “kucing dan tikus”. Begitu cara memanipulasi mesin pencari ditemukan oleh pengoptimal-SE mereka mengambil keuntungan dari ini.

Mesin pencari kemudian merevisi dan meningkatkan algoritma peringkat mereka untuk menanggapi strategi ini. Sangat jelas segera bahwa sebagian besar sekelompok kecil webmaster menyalahgunakan algoritma mesin pencari untuk mendapatkan keuntungan atas persaingan.

Optimasi mesin pencari Black Hat telah lahir. Cara tidak etis memanipulasi mesin pencari menghasilkan respons yang lebih cepat dari mesin pencari. Mesin pencari berusaha menjaga hasil pencarian bersih dari SPAM untuk memberikan layanan terbaik kepada pelanggan.

Industri mesin pencari dengan cepat menyadari bahwa SEO (Search Engine Optimization) sebagai suatu industri tidak akan hilang, dan untuk mempertahankan indeks yang bermanfaat, mereka harus setidaknya menerima industri tersebut. Mesin pencari sekarang sebagian bekerja dengan industri SEO tetapi masih sangat ingin memilah SPAMMERS yang mencoba memanipulasi hasilnya.

Ketika Google.com mulai menjadi mesin pencari pilihan bagi lebih dari 50% pengguna Internet, sangat terlihat oleh siapa pun di industri ini bahwa spamming mesin pencari telah mencapai dimensi baru.

Pengertian Mesin Pencari ? berikut Definisi, Cara Kerja dan 10 Contohnya

Google.com jauh lebih penting bagi keberhasilan sebuah situs web sehingga banyak webmaster hanya berkonsentrasi pada pengoptimalan situs mereka untuk Google hanya karena imbalannya sepadan dengan upaya yang dilakukan. Sekali lagi – Black Hat SEO terjadi, menekan webmaster yang jujur ​​dan situs mereka dalam hasil pencarian yang disampaikan. Google mulai melawan balik.

Beberapa pembaruan besar pada algoritma Google memaksa semua webmaster untuk beradaptasi dengan strategi baru. Pengoptimal Black Hat SE tetapi tiba-tiba melihat sesuatu yang berbeda terjadi. Alih-alih hanya didorong ke bawah dalam hasil pencarian situs web mereka tiba-tiba sepenuhnya dihapus dari indeks pencarian.

Dan kemudian ada sesuatu yang disebut “Google Sandbox” untuk muncul dalam diskusi. Situs web entah menghilang ke kotak pasir atau situs web baru tidak pernah masuk ke dalam indeks dan dianggap di Google Sandbox.

Kotak pasir tampaknya menjadi tempat di mana Google akan ‘memarkir’ situs web yang dianggap SPAMMY atau tidak sesuai dengan kebijakan Google (duplikat situs web dengan nama domain berbeda, dll.). Google Sandbox sejauh ini belum dikonfirmasi atau ditolak oleh Google dan banyak webmaster menganggapnya sebagai mitos.

Pada akhir 2004 Google mengumumkan memiliki 8 miliar halaman / situs dalam indeks pencarian. Kesenjangan antara Google dan dua pesaing berikutnya (MSN dan Yahoo!) tampaknya tumbuh. Namun – pada tahun 2005 MSN dan juga Yahoo! Mulai berjuang balik mengembalikan kehidupan ke dalam mesin pencari.

MSN dan Yahoo tampaknya mendapatkan dasar dalam memberikan hasil yang lebih baik dan lebih bersih dibandingkan dengan Google. Pada bulan Juli 2005 Yahoo! Diumumkan memiliki lebih dari 20 miliar halaman / situs dalam indeks pencarian – meninggalkan Google jauh di belakang.

Belum ada mesin pencari yang memenangkan perang. Namun tiga mesin pencari utama sedang berjuang keras untuk mendapatkan pangsa pasar dan satu kesalahan bisa mengubah nasib mesin pencari. Ini akan menjadi perjalanan yang berbatu – tapi layak ditonton dari luar.

Leave a Reply