Banyak vendor yang berbeda memberikan on-site
perangkat lunak analisis Web dan layanan. Ada dua pendekatan teknologi utama
untuk mengumpulkan data. Metode pertama, analisis logfile, membaca logfiles di
mana server web catatan semua transaksi. Metode kedua, tag halaman, menggunakan
JavaScript pada setiap halaman untuk memberitahukan pihak ketiga server jika
suatu halaman yang diberikan oleh browser web. Keduanya mengumpulkan data yang
dapat diolah untuk menghasilkan laporan lalu lintas Web.
Selain itu sumber data lain juga dapat ditambahkan untuk
menambah data. Misalnya e-mail tingkat respons, data kampanye surat langsung,
penjualan dan memimpin informasi, kinerja pengguna data seperti panas klik
pemetaan, atau metrik kustom lainnya yang diperlukan.
Web server logfile analisis
Web server mencatat beberapa transaksi mereka dalam sebuah
logfile. Itu segera menyadari bahwa logfiles ini dapat dibaca oleh program
untuk menyediakan data tentang popularitas website. Dengan demikian muncul
perangkat lunak analisis web log.
Pada awal 1990-an, statistik situs web terdiri terutama
dari menghitung jumlah permintaan klien (atau hits) dibuat ke web server. Ini
adalah metode yang masuk akal pada awalnya, karena setiap situs web biasanya
terdiri dari satu file HTML. Namun, dengan pengenalan gambar dalam HTML, dan
situs web yang membentang beberapa file HTML, menghitung ini menjadi kurang
bermanfaat. Komersial yang pertama Log Analyzer dirilis oleh IPRO pada tahun
1994.
Dua unit pengukuran diperkenalkan pada pertengahan tahun
1990-an untuk mengukur secara lebih akurat jumlah aktivitas manusia pada web
server. Ini adalah tampilan halaman dan dilihat (atau sesi). Sebuah tampilan
halaman didefinisikan sebagai permintaan yang dibuat ke web server untuk sebuah
halaman, sebagai lawan dari grafis, sedangkan kunjungan didefinisikan sebagai
urutan permintaan dari klien yang diidentifikasi secara unik kedaluwarsa
setelah jumlah tertentu tidak aktif, biasanya 30 menit . Halaman pandangan dan
kunjungan umumnya masih ditampilkan metrik, namun sekarang dianggap lebih
canggih pengukuran.
Munculnya search engine spider dan robot pada akhir tahun
1990-an, bersama dengan web proxy dan alamat IP yang ditetapkan secara dinamis
untuk perusahaan besar dan ISP, membuatnya lebih sulit untuk mengidentifikasi
manusia unik pengunjung ke sebuah website. Log analyzer menanggapi dengan
melacak kunjungan oleh cookie, dan dengan mengabaikan permintaan dari laba-laba
dikenal.
Ekstensif menggunakan web cache juga disajikan masalah
bagi analisis logfile. Jika seseorang mengunjungi kembali halaman, permintaan
kedua biasanya akan diambil dari cache browser, jadi tak ada permintaan akan
diterima oleh server web. Ini berarti bahwa orang jalan melalui situs tersebut
hilang. Caching bisa dikalahkan dengan mengkonfigurasi server web, tetapi hal
ini dapat mengakibatkan kinerja yang rusak pengunjung ke situs web.
Sumber : http://permass.blogspot.sg/2010/01/web-analytics.html#.V0or0-a3600
Tidak ada komentar:
Posting Komentar