Jasa seo professional – Keamanan situs web – atau ketiadaan – langsung dapat memengaruhi kinerja SEO Anda.
Spesialis pencarian dapat menjadi puas diri. Pemasar sering terjebak dalam persepsi tentang apa itu SEO dan mulai mengabaikan apa yang seharusnya SEO .
Industri ini telah lama mempertanyakan dampak permanen peretasan situs web terhadap kinerja organik.
Dan banyak yang mulai mempertanyakan peran langkah-langkah keamanan preventif yang mungkin dimainkan dalam evaluasi Google terhadap domain yang diberikan.
Berkat pengenalan GDPR dan peraturan yang menyertainya, pertanyaan tentang keamanan siber dan privasi data telah kembali ke medan pertempuran.
Perdebatan terus berlanjut. Berapa biaya sebenarnya dari serangan? Sejauh mana keamanan situs akan memengaruhi peringkat saya?
Yang benar adalah, banyak bisnis belum memahami pentingnya mengamankan aset digital mereka. Sampai sekarang, membangun kerentanan di tempat telah dianggap sebagai keahlian yang berbeda dari SEO . Tapi seharusnya tidak.
Menjadi seorang pemimpin – baik dalam kinerja pemikiran maupun pencarian – adalah tentang menjadi proaktif dan mencakup basis yang tidak dimiliki pesaing Anda.
Keamanan situs web sering diabaikan ketika membahas rencana pemasaran digital jangka panjang. Namun pada kenyataannya, itu bisa menjadi sinyal yang membuat Anda berbeda.
Kapan terakhir kali keamanan dunia maya dibahas selama audit situs SEO atau rapat strategi Anda?
Bagaimana keamanan situs web memengaruhi SEO?
HTTPS dinamai sebagai faktor peringkat dan secara terbuka mendorong pembaruan ke browser Chrome. Sejak itu, HTTPS telah, sebagian besar, menjadi ‘anak poster’ keamanan siber dalam SEO.
Tetapi seperti yang kita ketahui, keamanan tidak berhenti di HTTPS. Dan HTTPS tentu tidak berarti Anda memiliki situs web yang aman.
Terlepas dari sertifikasi HTTPS, penelitian menunjukkan bahwa sebagian besar situs web akan mengalami rata – rata 58 serangan per hari . Terlebih lagi, sebanyak 61 persen dari semua lalu lintas internet diotomatiskan – yang berarti serangan ini tidak membeda-bedakan berdasarkan ukuran atau popularitas situs web yang bersangkutan.
Tidak ada situs yang terlalu kecil atau terlalu kecil untuk diserang. Sayangnya, angka-angka ini hanya meningkat. Dan serangan menjadi semakin sulit dideteksi.
1. Daftar Hitam
Jika – atau ketika – Anda menjadi sasaran serangan, kerugian finansial langsung bukan satu-satunya penyebab kekhawatiran. Situs web yang dikompromikan dapat mendistorsi SERPs dan tunduk pada serangkaian hukuman manual dari Google.
Yang sedang berkata, mesin pencari daftar hitam hanya sebagian kecil dari total jumlah situs web yang terinfeksi malware.
Laporan terbaru GoDaddy menemukan bahwa dalam 90 persen kasus , situs web yang terinfeksi tidak ditandai sama sekali.
Ini berarti operator dapat terus menjadi sasaran tanpa sepengetahuan mereka – pada akhirnya meningkatkan keparahan sanksi yang dijatuhkan.
Bahkan tanpa daftar hitam, peringkat situs web masih dapat menderita dari serangan. Penambahan malware atau spam ke situs web hanya dapat memiliki hasil negatif.
Jelas bahwa mereka yang terus mengandalkan gejala atau peringatan yang menghadap keluar dari Google mungkin mengabaikan malware yang memengaruhi pengunjung mereka.
Ini menciptakan paradoks. Ditandai atau dimasukkan daftar hitam untuk program jahat pada dasarnya mengakhiri situs web Anda dan menghapus peringkat Anda, setidaknya sampai situs tersebut dibersihkan dan hukumannya dibatalkan.
Tidak ditandai ketika situs Anda berisi perangkat lunak jahat mengarah pada kerentanan yang lebih besar terhadap peretas dan hukuman yang lebih ketat.
Pencegahan adalah satu-satunya solusi.
Ini sangat mengkhawatirkan mengingat bahwa 9 persen, atau sebanyak 1,7 juta situs web , memiliki kerentanan besar yang memungkinkan penyebaran malware.
Jika Anda berinvestasi dalam visibilitas pencarian jangka panjang, beroperasi di pasar yang sangat kompetitif, atau sangat bergantung pada lalu lintas organik, maka kewaspadaan dalam mencegah kompromi sangat penting.
2. Kesalahan perayapan
Bot pasti akan mewakili sebagian besar dari lalu lintas situs web dan aplikasi Anda.
Tapi tidak semua bot jinak. Setidaknya 19% bot merayapi situs web untuk tujuan yang lebih jahat seperti pengikisan konten, identifikasi kerentanan, atau pencurian data.
Meskipun upaya mereka tidak berhasil, serangan konstan dari perangkat lunak otomatis dapat mencegah Googlebot merayapi situs Anda secara memadai.
Bot berbahaya menggunakan bandwidth dan sumber daya server yang sama dengan bot yang sah atau pengunjung normal. Sepuluh alasan kampanye SEO Anda tidak berfungsi
Namun, jika server Anda tunduk pada tugas yang berulang dan diotomatiskan dari beberapa bot dalam jangka waktu yang lama, itu dapat mulai membatasi lalu lintas web Anda. Sebagai tanggapan, server Anda berpotensi menghentikan penyajian halaman sama sekali.
Jika Anda melihat 404 atau 503 kesalahan aneh di Search Console untuk halaman yang tidak hilang sama sekali, mungkin Google mencoba merayapi mereka tetapi server Anda melaporkannya sebagai hilang.
Jenis kesalahan ini dapat terjadi jika server Anda terlalu banyak bekerja
Meskipun aktivitas mereka biasanya dapat dikelola, kadang-kadang bot yang sah dapat mengkonsumsi sumber daya pada tingkat yang tidak berkelanjutan. Jika Anda menambahkan banyak konten baru, perayapan agresif dalam upaya untuk mengindeksnya dapat membuat server Anda tegang.
Demikian pula, ada kemungkinan bahwa bot yang sah dapat mengalami kesalahan di situs web Anda, memicu operasi intensif sumber daya atau loop tak terbatas .
Untuk mengatasi hal ini, sebagian besar situs menggunakan caching sisi server untuk melayani versi pra-dibangun dari situs mereka daripada berulang kali menghasilkan halaman yang sama pada setiap permintaan, yang jauh lebih intensif sumber daya. Ini memiliki manfaat tambahan untuk mengurangi waktu muat bagi pengunjung nyata Anda, yang akan disetujui Google.
Sebagian besar mesin pencari utama juga menyediakan cara untuk mengontrol tingkat di mana bot mereka merayapi situs Anda, agar tidak membanjiri kemampuan server Anda.
Ini tidak mengontrol seberapa sering bot akan merayapi situs Anda, tetapi tingkat sumber daya yang dikonsumsi saat itu.
Untuk mengoptimalkan secara efektif, Anda harus mengenali ancaman terhadap Anda atau model bisnis spesifik klien Anda.
Menghargai kebutuhan untuk membangun sistem yang dapat membedakan antara lalu lintas bot yang buruk, lalu lintas bot yang baik, dan aktivitas manusia. Dilakukan dengan buruk, Anda dapat mengurangi efektivitas SEO Anda, atau bahkan memblokir pengunjung yang berharga dari layanan Anda sepenuhnya.
Di bagian kedua, kita akan membahas lebih lanjut tentang mengidentifikasi lalu lintas bot berbahaya dan cara terbaik untuk mengurangi masalah.
3. Spam SEO
Lebih dari 73% situs yang diretas dalam studi GoDaddy diserang hanya untuk tujuan spam SEO.
Ini bisa berupa tindakan sabotase yang disengaja, atau upaya sembarangan untuk mengikis, merusak, atau memanfaatkan situs web yang resmi.
Secara umum, pelaku jahat memuat situs dengan spam untuk mencegah kunjungan yang sah, mengubahnya menjadi pertanian tautan, dan memancing pengunjung yang tidak menaruh curiga dengan malware atau tautan phishing.
Dalam banyak kasus, peretas mengambil keuntungan dari kerentanan yang ada dan mendapatkan akses administratif menggunakan injeksi SQL .
Jenis serangan yang ditargetkan ini bisa sangat menghancurkan. Situs Anda akan dibanjiri dengan spam dan berpotensi masuk daftar hitam. Pelanggan Anda akan dimanipulasi. Kerusakan reputasi dapat diperbaiki.
Selain daftar hitam, tidak ada penalti SEO langsung untuk kekurangan situs web. Namun, cara situs web Anda muncul dalam perubahan SERP. Kerusakan akhir tergantung pada perubahan yang dilakukan.
Namun kemungkinan situs web Anda tidak akan relevan dengan kueri sebelumnya, setidaknya untuk sementara waktu.
Katakanlah penyerang mendapat akses dan menanamkan proses jahat di server Anda yang beroperasi di luar direktori hosting.
Mereka mungkin berpotensi memiliki akses backdoor tidak terkekang ke server dan semua konten yang dihosting di dalamnya, bahkan setelah file dibersihkan.
Dengan ini, mereka dapat menjalankan dan menyimpan ribuan file – termasuk konten bajakan – di server Anda.
Jika ini menjadi populer, sumber daya server Anda akan digunakan terutama untuk mengirimkan konten ini. Ini secara besar-besaran akan mengurangi kecepatan situs Anda , tidak hanya kehilangan perhatian pengunjung Anda, tetapi berpotensi menurunkan peringkat Anda.
Teknik-teknik spam SEO lainnya termasuk penggunaan bot scraper untuk mencuri dan menggandakan konten, alamat email, dan informasi pribadi. Apakah Anda mengetahui kegiatan ini atau tidak, situs web Anda pada akhirnya bisa terkena hukuman untuk konten duplikat.
Cara mengurangi risiko SEO dengan meningkatkan keamanan situs web
Meskipun prospek serangan ini dapat mengkhawatirkan, ada beberapa langkah yang dapat dilakukan oleh pemilik dan agensi situs web untuk melindungi diri mereka sendiri dan klien mereka. Di sini, proaktif dan pelatihan adalah kunci dalam melindungi situs dari serangan yang berhasil dan menjaga kinerja organik dalam jangka panjang.
1. Bot berbahaya
Sayangnya, kebanyakan bot jahat tidak mengikuti protokol standar ketika datang ke perayap web. Ini jelas membuat mereka lebih sulit untuk dicegah. Pada akhirnya, solusinya tergantung pada jenis bot yang Anda hadapi.
Jika Anda khawatir tentang pencakar konten, Anda dapat melihat backlink atau trackback secara manual untuk melihat situs apa yang menggunakan tautan Anda. Jika Anda menemukan bahwa konten Anda telah diposting tanpa izin Anda di situs spam, ajukan keluhan DMCA dengan Google.
Secara umum, pertahanan terbaik Anda adalah mengidentifikasi sumber lalu lintas jahat Anda dan memblokir akses dari sumber-sumber ini.
Cara tradisional untuk melakukan ini adalah menganalisis file log Anda secara rutin melalui alat seperti AWStats . Ini menghasilkan laporan yang mencantumkan setiap bot yang telah merayapi situs web Anda, bandwidth yang dikonsumsi, jumlah total klik, dan banyak lagi.
Penggunaan bandwidth bot normal tidak boleh melebihi beberapa megabyte per bulan.
Jika ini tidak memberi Anda data yang Anda butuhkan, Anda selalu dapat menelusuri situs atau file log server Anda. Dengan menggunakan ini, khususnya data ‘Alamat IP sumber’ dan ‘Agen Pengguna’, Anda dapat dengan mudah membedakan bot dari pengguna normal.
Bot berbahaya mungkin lebih sulit diidentifikasi karena sering meniru perayap yang sah dengan menggunakan Agen Pengguna yang sama atau serupa.
Jika Anda curiga, Anda dapat melakukan pencarian DNS terbalik pada alamat IP sumber untuk mendapatkan nama host bot yang dimaksud.
Alamat IP bot mesin pencari utama harus mencari nama host yang dikenal seperti ‘* .googlebot.com’ atau ‘* .search.msn.com’ untuk Bing.
Selain itu, bot jahat cenderung mengabaikan standar pengecualian robot . Jika Anda memiliki bot yang mengunjungi halaman yang seharusnya dikecualikan, ini menunjukkan bot mungkin berbahaya.