Pada tugas softskill kali ini, saya
akan membahas tentang Pengukuran/Analisis Web. Di dunia internet banyak sekali
alat-alat untuk menganalisis suatu web, sebagai contoh : Piwik, Alexa, Page
Rank, GTMetrix, CloudStatus, Jiffy, dan lain sebagainya. Dan dibawah ini adalah
penjelasan dari suatu alat penganalisa web.
Piwik
Piwik
adalah sebuah tool yang gratis untuk menganalisa suatu web, piwik dapat
berjalan pada php dan mysql webserver yang ditulis oleh tim pengembang
internasional. Piwik digunakan oleh lebih dari 480.000 website, 1.2 % dari
semua situs web, dan telah diterjemahkan ke lebih dari 45 bahasa. Versi baru
Piwik dirilis setiap beberapa minggu sekali.
Piwik
melacak kunjungan online untuk satu situs atau lebih dan menampilkan laporan
pada kunjungan tersebut untuk dianalisis.
Fitur
Piwik
menampilkan laporan mengenai lokasi geografis kunjungan, sumber dilihat (yaitu
apakah mereka datang dari sebuah situs web, langsung, atau sesuatu yang lain),
kemampuan teknis pengunjung ( peramban , ukuran layar, sistem
operasi , dll), apa pengunjung melakukan (laman yang mereka lihat, mereka
mengambil tindakan, bagaimana mereka meninggalkan), waktu kunjungan dan banyak
lagi.
Selain
laporan tersebut, Piwik menyediakan beberapa fitur lain yang dapat membantu pengguna
menganalisis data yang terakumulasi Piwik, seperti:
- Penjelasan -
kemampuan untuk menyimpan catatan (seperti analisis seseorang data) dan
melampirkannya ke tanggal di masa lalu.
- Transisi -
fitur yang mirip dengan Klik path fitur-seperti yang memungkinkan
seseorang untuk melihat bagaimana pengunjung menavigasi situs web, namun
berbeda karena hanya menampilkan informasi navigasi untuk satu halaman pada
satu waktu.
- Tujuan -
kemampuan untuk menetapkan tujuan untuk tindakan diinginkan bagi pengunjung untuk
mengambil (seperti mengunjungi halaman atau membeli produk). Piwik akan
melacak berapa banyak kunjungan menghasilkan tindakan-tindakan yang diambil.
- E-commerce -
kemampuan untuk melacak jika dan berapa banyak orang menghabiskan pada sebuah
situs web.
- Overlay
Halaman - fitur yang menampilkan data analisis overlay di atas sebuah
situs web.
- Row
Evolusi - fitur yang menampilkan bagaimana metrik berubah seiring waktu
dalam sebuah laporan.
- Variabel
kustom - kemampuan untuk melampirkan data, seperti nama pengguna, untuk
mengunjungi data.
Piwik
juga menyediakan fitur yang tidak langsung berkaitan dengan menganalisis lalu
lintas web, termasuk:
- Privasi
Options - kemampuan untuk anonim alamat IP, data pelacakan pembersihan
secara teratur (tapi tidak melaporkan data), opt-out dukungan dan Do Not
Track dukungan. Di Jerman, 13% dari de website. Menggunakan Piwik
karena pilihan ini.
- Laporan
Terjadwal - laporan dikirim secara rutin melalui e-mail atau pesan teks.
- Masuk
Mengimpor - script juga disediakan bahwa data impor dari server
web log.
- API -
setiap laporan dapat diakses melalui API web serta hampir setiap
fungsi Administratif. Program dapat dibuat untuk menggunakan API ini.
- Mobile
App - aplikasi mobile gratis disediakan sehingga pengguna dapat mengakses
data analisis mereka pada ponsel mereka.
Meskipun
tidak benar-benar berbicara fitur, Piwik juga memiliki karakteristik yang
pengguna adalah satu-satunya orang yang melihat data mereka sendiri. Ini
adalah produk sampingan dari Piwik menjadi solusi self-hosted. Software sebagai
layanan solusi (seperti Google Analytics ) di sisi lain,
memiliki akses penuh ke pengguna pengumpulan data.
Piwik
juga dapat diintegrasikan dengan banyak aplikasi pihak ketiga
termasuk CMSes seperti Wordpress atau Drupal , E-Commerce aplikasi
seperti Magento atau PrestaShop , sistem papan
buletin seperti phpBB , dan banyak lagi.
Komunitas
Piwik juga telah menciptakan beberapa plugin yang dapat digunakan untuk
menambah Piwik. Saat ini 20 plugin pihak ketiga.
SEO
SEO (Search Engine Optimization)
adalah mengoptimalkan sebuah blog/web dengan memanfaatkan mesin pencari dan
mendapatkan peringkat yang tinggi di halaman pertama mesin pencari dengan
menggunakan keyword agar dibanjiri pengunjung yang datang dari search engine.
GTmetrix
GTmetrix merupakan sebuah situs
dimana kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan
performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo
Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil
juga rekomendasi yang harus dilakukan.
Kelebihan dari GTmetrix :
1. dapat membandingkan beberapa URL secara bersamaan.
2. dapat menjadwalkan pengecekan web/blog secara otomatis
dan dapat menyimpan laporan.
kekurangan dari GTmetrix :
dalam penggunaan GTmetrix harus menggunakan koneksi
internet yang cepat.
Keynote Internet Testing Environment (KITE)
alat pengujian dan pengukur berbasis desktop yang digunakan untuk merekam atau
mengedittransaksi web dan menganalis kinerja dari aplikasi web. KITE sangat
mudah untuk digunakan dan sebagai salah satu alat yang sudah cukup terkenal
didunia.
CloudStatus
CloudStatus adalah alat pengukur web yang berfungsi menelusuri kinerja
utama dari layanan-layanan cloud computing. CloudStatus terdiri dari 5
layanan dasar yang ditawarkan oleh amazon, dan memiliki kemampuan monitoring
yang lebih baik.
Jiffy
Jiffy tersedia secara
bebas(open source).
Cara kerja jiffy adalah dengan
memasukan kode jiffy ke dalam halamanhalaman web yang akan di telusuri. Dengan
jiffy kita dapat mengukur page rendering times, melaporkan hasil pengukuran
dari web server, aggregate log into database, dan membuat laporan-laporan.
Pembasan berikutnya tentang bagaimana sebuah web perlu dianalisis , yaitu :
1. membantu mengetahui nilai yang akan didapat dari suatu web maupun blog
2. membantu memantau beberapa lama pengunjung yang membuka situs web tersebut
3. membantu mengoptimalkan situs web dalam hal penampilan dan menambah
informasi.
Crawlers
Web
crawler adalah suatu program atau script otomat yang relatif simple, yang
dengan metode tertentu melakukan scan atau “crawl” ke semua halaman-halaman
Internet untuk membuat index dari data yang dicarinya. Nama lain untuk web
crawl adalah web spider, web robot, bot, crawl dan automatic indexer.
Web
crawl dapat digunakan untuk beragam tujuan. Penggunaan yang paling umum adalah
yang terkait dengan search engine. Search engine menggunakan web crawl untuk
mengumpulkan informasi mengenai apa yang ada di halaman-halaman web publik.
Tujuan utamanya adalah mengumpukan data sehingga ketika pengguna Internet
mengetikkan kata pencarian di komputernya, search engine dapat dengan
segera menampilkan web site yang relevan.
Ketika
web crawl suatu search engine mengunjungi halaman web, ia “membaca” teks yang
terlihat, hyperlink, dan konten berbagai tag yang digunakan dalam situs seperti
meta tag yang banyak berisi keyword. Berdasar informasi yang dikumpulkan web
crawl, search engine akan menentukan mengenai apakah suatu situs dan mengindex
informasinya. Website itu kemudian dimasukkan ke dalam database search engine
dan dilakukan proses penentuan ranking halaman-halamannya
Crawlers
pada search engine
Beberapa
contoh web crawler:
1.Teleport
Pro
Salah
satu software web crawler untuk keperluan offline browsing. Software ini sudah
cukup lama popular, terutama pada saat koneksi internet tidak semudah dan
secepat sekarang. Software ini berbayar dan beralamatkan di
http://www.tenmax.com.
2.HTTrack
Ditulis
dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan software
yang dapat mendownload konten website menjadi sebuah mirror pada harddisk anda,
agar dapat dilihat secara offline. Yang menarik software ini free dan dapat di
download pada website resminya di http://www.httrack.com
3.Googlebot
Merupakan
web crawler untuk membangun index pencarian yang digunakan oleh search engine
Google. Kalau website anda ditemukan orang melalui Google, bisa jadi itu
merupakan jasa dari Googlebot. Walau konsekuensinya, sebagian bandwidth anda
akan tersita karena proses crawling ini.
4.Yahoo!Slurp
Kalau
Googlebot adalah web crawler andalan Google, maka search engine Yahoo
mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh Inktomi Corporation
yang diakuisisi oleh Yahoo!.
5.YaCy
Sedikit
berbeda dengan web crawler lainnya di atas, YaCy dibangun atas prinsip
jaringan P2P (peer-to-peer), di develop dengan menggunakan java, dan
didistribusikan pada beberapa ratus mesin computer (disebut YaCy peers).
Tiap-tiap peer di share dengan prinsip P2P untuk berbagi index, sehingga tidak
memerlukan server central. Contoh search engine yang menggunakan YaCy adalah
Sciencenet (http://sciencenet.fzk.de), untuk pencarian dokumen di bidang
sains.
Cara
Memasukan Halaman Web Kita ke Dalam Google Crawlers
Tips
Agar Sering didatangi oleh Google Crawlers pertama : membuat sitemap dan atau
daftar isi Sitemap
(peta situs) blog berfungsi membantu search engine bot menjelajahi, menemukan
dan mengindeks konten blog kita. Jika blog anda berplatform wordpress.org, cara
paling mudah membuat sitemap adalah dengan memasang plugin bernama Google XML
sitemaps. Sitemap sebenarnya hampir sama dengan halaman daftar isi yang sering
kita buat di blog, hanya sitemap berisi kode-kode HTML yang dibaca oleh bot
sedangkan daftar isi untuk dibaca oleh manusia. Jika anda ingin sitemap yang
juga berfungsi sebagai daftar isi, gunakan plugin bernama Dagon Sitemap
Generator. Beberapa themes seperti GoBlog Themes sudah menyediakan sitemap
secara default.
Tips
Agar Sering didatangi oleh Google Crawlers kedua : mendaftarkan sitemap di
Google Webmaster Tools
Sitemap
blog anda perlu didaftarkan di Google Webmaster Tools. Google webmaster sendiri
penting diikuti oleh semua pemilik blog agar anda dapat menganalisa semua data
yang berkenaan dengan blog anda. Melalui uji sitemap, kita bisa mengetahui
konten mana di blog yang belum terindeks Google. Daftarkan dulu blog anda di
Google Webmaster Tools.
Tips
Agar Sering didatangi oleh Google Crawlers ketiga : internal link
Internal
link merupakan teknik onpage optimization, yaitu salah satu cara yang digunakan
dalam SEO untuk meningkatkan online visibility dari sebuah blog. Internal link
adalah link yang mengarah ke dalam blog kita sendiri. Buatlah link tersebut
relevan dengan topik yang sedang dibahas. Berapa banyak internal link yang
perlu ditambahkan dalam 1 artikel ? Tidak ada patokan, namun buatlah minimal 2
saja. Satu link mengarah ke homepage dan 1 link mengarah ke artikel lain yang
kategorinya sejenis atau bahkan mengarah ke artikelnya itu sendiri. Internal
link ini sama fungsinya seperti sitemap yaitu memudahkan Google Crawlers
menjelajahi blog kita.
Cara
kerja crawlers
Tipe
dasar dari mesin pencari adalah menggunakan robot yang biasa disebut crawlers
atau spider.
Mesin
pencari menggunakan jaringan internet untuk mengindeks seluruh website. Ketika
kita memasukkan halaman website ke sebuah mesin pencari dengan melengkapi apa
yang mesin pencari butuhkan untuk memasukkan halaman website, “spider” mesin
pencari akan mengindeks/mendata seluruh website kita. Sebuah “spider” adalah
program otomatis yang berjalan melalui sistem mesin pencari. “Spider”
mengunjungi sebuah website dengan membaca isi/conten yang teraktual pada Meta
Tag website dan juga mengikuti tautan/link yang terkoneksi dengan website
tersebut. Kemudian spider akan kembali ke pusat penyimpanan data dengan semua
informasi yang telah didapatkannya dimana data itu telah terindeks/tersusun.
Beberapa spider hanya menyusun beberapa nomor dari halaman website kita, jadi
jangan membuat website dengan 500 halaman!
Secara
teratur spider akan kembali ke sebuah website untuk mengecek segala informasi
yang telah berubah. Penentuan frekuensinya tergantung pada para moderator dari
mesin pencari. Spider hampir mirip seperti buku yang berisi tabel-tabel, isi
yang teraktual dan tautan juga referensi untuk semua website itu ditemukan
ketika memulai pencarian dan mungkin tersusun dari jutaan halaman sehari.
Contoh
mesin pencari : Google, Excite, Lycos, Altavista dan Yahoo.
Search
Engine
Mesin
pencari atau Search engine adalah program komputer yang dirancang untuk
melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp,
publikasi milis, ataupun news group dalam sebuah ataupun sejumlah komputer
peladen dalam suatu jaringan. Search engine merupakan perangkat pencari
informasi dari dokumen-dokumen yang tersedia. Hasil pencarian umumnya
ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut tingkat
akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai hits.
Informasi yang menjadi target pencarian bisa terdapat dalam berbagai macam
jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis berkas
lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan informasi
atas data yang tersimpan dalam suatu basisdata ataupun direktori web.
Cara
kerja Search Engine
1.
Proses Crawling
Pada
proses ini terdapat istilah spider. Spider ini bertugas mengumpulkan informasi
mengenai blog atau situs tersebut. Mulai dari link, struktur HTML, meta tag,
judul, hingga konten teks. Spider dapat merayapi blog Anda jika blog anda
memiliki file robots.txt. Robots.txt ini berisikan script yang akan
diterjemahkan oleh spider sebagai perintah untuk mengumulkan
informasi-informasi di atas. Robots.txt juga akan memudahkan spider untuk
mengumpulkan data. Proses crawling merupakan proses yang sangat penting,
Jika proses crawling tidak berjalan dengan lancar, maka search engine tidak
akan mengenali blog Anda.
2.
Proses Indexing
Setelah
spider sudah mengumpulkan semua informasi blog Anda maka akan disimpan pada
database. Penyimpanan ke database ini menggunakan index yang juga mencantumkan
alamat URLnya. Penyimpanan ini dilakukan secara berkala untuk mempercepat
proses pencarian.
3.
Proses Searching
Proses
terakhir ini dilakukan berdasarkan perintah pengguna search engine. Ketika user
melakukan pencarian dengan keyword yang dikehendaki maka Search engine akan
menampilkan database berdasarkan hasil proses indexing. Search engine akan
menampilkan judul, cuplikan artikel yang sesuai dengan keyword, dan cuplikan
url.
Perbedaan
beberapa Searh Engine
Search
Engine adalah program komputer yang dirancang untuk membantu seseorang
menemukan file-file yang disimpan dalam komputer, misalnya dalam sebuah server
umum di web (WWW) atau dalam komputer sendiri. Mesin pencari memungkinkan kita
untuk meminta content media dengan kriteria yang spesifik (biasanya yang berisi
kata atau frasa yang kita tentukan) dan memperoleh daftar file yang memenuhi
kriteria tersebut. Mesin pencari biasanya menggunakan indeks (yang sudah dibuat
sebelumnya dan dimutakhirkan secara teratur) untuk mencari file setelah
pengguna memasukkan kriteria pencarian. Terdapat bermacam-macam Search Engine
seperti : Google, Yahoo, Alltheweb, AltaVista, dll. Kesemuanya memiliki
kemampuan seperti yang di jelaskan di atas, akan tetapi dari beberapa Search
Engine tersebut kesemuanyapun mempunyai keunggulan dan kekurangannya
masing-masing. Berikut adalah karakteristik-karakteristik dari beberapa Search
Engine tersebut.
Google :
Google : Google dikenal sebagai alat pencarian yang paling cerdas. Meski kita
hanya secara sederhana melakukan pencarian dengan memasukkan kata atau beberapa
kata saja, Google akan secara otomatis melakukan pencarian dengan logika
Boolean dengan menggunakan batasan-batasan AND, NOT, PHRASE, dan OR. Google
tidak mendukung pemotongan (truncation), penambahan dan tidak membedakan bentuk
huruf besar atau kecil (case sensitive). Kelebihan lain ialah Google
menggunakan relevansi dan linking, yaitu jumlah tertentu halaman-halaman
sejenis yang berhubungan dengan halaman yang dicari. Google bahkan memungkinkan
kita melakukan pencarian dengan menggunakan simbol-simbol tertentu, misalnya
untuk stock quotes, peta , dan memberikan pilihan 60 bahasa. Google juga
menyediakan file-file berekstensi PDF yang jarang dihasilkan oleh alat-alat
pencari lainnya.
Altavista :
Altavista : Ciri utama AltaVista yang dapat mengindeks sebanyak lebih dari 550
juta halaman situs ialah penggunaan analisa relevansi teks dan juga penggunaan
logika Boolean. Pencarian dapat dilakukan dengan menggunakan kata atau frasa
yang tepat sesuai dengan topik yang dicari. Pencarian dapat dibatasi hanya pada
bagian-bagian tertentu, misalnya judul, jangkar (anchor), host, link, applet,
gambar, dan URL. Keunggulan utama Alta Vista ialah kemampuan menggabung
pencarian hanya dengan satu kali pencarian saja.
Alltheweb :
Alltheweb : Metode pencarian dalam web ini menggunakan logika Boolean. Kita
dapat membatasi pencarian hanya pada judul, teks, nama link, URL, link, bahasa
dan domain. Ranking pencarian didasarkan pada relevansi, analisa link,
penempatan teks pada halaman tertentu, dan penggunaan kata kunci.
Yahoo :
yahoo : Yahoo tidak menggunakan robot dalam membuat direktori informasi, web
ini bergantung pada jumlah web site yang didaftarkan di direktori mereka.
Sekalipun demikian Yahoo sangat selektif dalam menerima situs-situs yang
didaftarkan. Karena Yahoo tidak mempunyai jangkauan yang luas, maka web ini
menyediakan mesin pencarian milik Google sebagai pelengkap.
Web
Archiving
Pengarsipan
web (web Archiving) adalah proses mengumpulkan bagian dari WWW dan memastikan
koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk
diakses peneliti, sejarawan, dan masyarakat umum pada masa datang. Besarnya
ukuran Web membuat arsiparis web umumnya menggunakan perangkak web untuk
pengumpulan secara otomatis. Organisasi pengarsip web terbesar yang menggunakan
ancangan perangkak web ini adalah Internet Archive yang berupaya memelihara
arsip dari seluruh Web. Perpustakaan nasional, arsip nasional, dan berbagai
konsorsium organisasi lain juga terlibat dalam upaya pengarsipan konten Web
yang memiliki nilai penting bagi mereka. Perangkat lunak dan layanan komersial
juga tersedia bagi organisasi yang ingin mengarsipkan konten web mereka sendiri
untuk berbagai keperluan.
Cara
Kerja Web Archiving
Metode
Pengarsipan Beberapa metode yang populer dari Web pengarsipan termasuk panen
jauh, pengarsipan on-demand, pengarsipan database, dan pengarsipan transaksi.
Panen
jarak jauh adalah metode pengumpulan informasi secara otomatis menggunakan
Web crawler. Contoh crawler Web populer termasuk Heritrix, HTTrack, Offline
Explorer, dan Web Kurator.
On-demand mengacu
Web pengarsipan pengarsipan dan mengambil isi internet sesuai dengan kebutuhan spesifik
pengguna. Layanan populer meliputi WebCite, Arsip-It, dan Hanzo Arsip.
Database
pengarsipan mengacu pada metode pengumpulan konten yang mendasari
database-driven situs web dengan mengekstraksi isi database ke skema standar
dengan menggunakan XML.
Pengarsipan
Transaksional mengumpulkan rincian transaksi aktual antara Web server dan
browser Web. Metode ini digunakan untuk menyimpan bukti dari konten dilihat
pada halaman Web tertentu pada tanggal tertentu.
Contoh-contoh
Web Archiving
Berikut
Ini adalah Beberapa Contoh Layanan yg melayani jasa Web Archiving:
Archive-it :
Sebuah Layanan Pengarsipan Web Berlangganan yang memperbolehkan sebuah
institusi Untuk Membangun, Me-Manage, dan Mecari Arsip web Institusi itu
sendiri
Archive.is :
Sebuah Layanan Pengarsipan Web Gratis Untuk menyimpan Halaman dan berikut juga
Gambar dari sebuah website tertentu. Dan bias menyimpan halaman dari Web 2.0.
Iterasi :
Sebuah Layanan Pengarsipan Web yang khusus untuk agensi pemerintahan,
organisasi Finansial, brand heritage Dll.
Anggota Kelompok :
- Olanda Eka Putra 55411460
- Rizky Fauzi Ruslan 56411376
- Syarief Hidayat 59411297
- Syarofi Azamy 58411266
- Yosi Septian 57411584
Sumber :