Demo Site

Senin, 24 Juni 2013

Analisis web

            Pada tugas softskill kali ini, saya akan membahas tentang Pengukuran/Analisis Web. Di dunia internet banyak sekali alat-alat untuk menganalisis suatu web, sebagai contoh : Piwik, Alexa, Page Rank, GTMetrix, CloudStatus, Jiffy, dan lain sebagainya. Dan dibawah ini adalah penjelasan dari suatu alat penganalisa web.

Piwik

Piwik adalah sebuah tool yang gratis untuk menganalisa suatu web, piwik dapat berjalan pada php dan mysql webserver yang ditulis oleh tim pengembang internasional. Piwik digunakan oleh lebih dari 480.000 website, 1.2 % dari semua situs web, dan telah diterjemahkan ke lebih dari 45 bahasa. Versi baru Piwik dirilis setiap beberapa minggu sekali.
Piwik melacak kunjungan online untuk satu situs atau lebih dan menampilkan laporan pada kunjungan tersebut untuk dianalisis.

Fitur
Piwik menampilkan laporan mengenai lokasi geografis kunjungan, sumber dilihat (yaitu apakah mereka datang dari sebuah situs web, langsung, atau sesuatu yang lain), kemampuan teknis pengunjung ( peramban , ukuran layar, sistem operasi , dll), apa pengunjung melakukan (laman yang mereka lihat, mereka mengambil tindakan, bagaimana mereka meninggalkan), waktu kunjungan dan banyak lagi.
Selain laporan tersebut, Piwik menyediakan beberapa fitur lain yang dapat membantu pengguna menganalisis data yang terakumulasi Piwik, seperti:

  • Penjelasan - kemampuan untuk menyimpan catatan (seperti analisis seseorang data) dan melampirkannya ke tanggal di masa lalu.
  • Transisi - fitur yang mirip dengan Klik path fitur-seperti yang memungkinkan seseorang untuk melihat bagaimana pengunjung menavigasi situs web, namun berbeda karena hanya menampilkan informasi navigasi untuk satu halaman pada satu waktu.
  • Tujuan - kemampuan untuk menetapkan tujuan untuk tindakan diinginkan bagi pengunjung untuk mengambil (seperti mengunjungi halaman atau membeli produk). Piwik akan melacak berapa banyak kunjungan menghasilkan tindakan-tindakan yang diambil.
  • E-commerce - kemampuan untuk melacak jika dan berapa banyak orang menghabiskan pada sebuah situs web.
  • Overlay Halaman - fitur yang menampilkan data analisis overlay di atas sebuah situs web.
  • Row Evolusi - fitur yang menampilkan bagaimana metrik berubah seiring waktu dalam sebuah laporan.
  • Variabel kustom - kemampuan untuk melampirkan data, seperti nama pengguna, untuk mengunjungi data.
Piwik juga menyediakan fitur yang tidak langsung berkaitan dengan menganalisis lalu lintas web, termasuk:
  • Privasi Options - kemampuan untuk anonim alamat IP, data pelacakan pembersihan secara teratur (tapi tidak melaporkan data), opt-out dukungan dan Do Not Track dukungan. Di Jerman, 13% dari de website. Menggunakan Piwik karena pilihan ini.
  • Laporan Terjadwal - laporan dikirim secara rutin melalui e-mail atau pesan teks.
  • Masuk Mengimpor - script juga disediakan bahwa data impor dari server web log.
  • API - setiap laporan dapat diakses melalui API web serta hampir setiap fungsi Administratif. Program dapat dibuat untuk menggunakan API ini.
  • Mobile App - aplikasi mobile gratis disediakan sehingga pengguna dapat mengakses data analisis mereka pada ponsel mereka.
Meskipun tidak benar-benar berbicara fitur, Piwik juga memiliki karakteristik yang pengguna adalah satu-satunya orang yang melihat data mereka sendiri. Ini adalah produk sampingan dari Piwik menjadi solusi self-hosted. Software sebagai layanan solusi (seperti Google Analytics ) di sisi lain, memiliki akses penuh ke pengguna pengumpulan data.
Piwik juga dapat diintegrasikan dengan banyak aplikasi pihak ketiga termasuk CMSes seperti Wordpress atau Drupal , E-Commerce aplikasi seperti Magento atau PrestaShop , sistem papan buletin seperti phpBB , dan banyak lagi.
Komunitas Piwik juga telah menciptakan beberapa plugin yang dapat digunakan untuk menambah Piwik. Saat ini 20 plugin pihak ketiga.

SEO

SEO (Search Engine Optimization) adalah mengoptimalkan sebuah blog/web dengan memanfaatkan mesin pencari dan mendapatkan peringkat yang tinggi di halaman pertama mesin pencari dengan menggunakan keyword agar dibanjiri pengunjung yang datang dari search engine.


GTmetrix

GTmetrix merupakan sebuah situs dimana kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil juga rekomendasi yang harus dilakukan.

Kelebihan dari GTmetrix :
     1. dapat membandingkan beberapa URL secara bersamaan. 
     2. dapat menjadwalkan pengecekan web/blog secara otomatis dan dapat menyimpan laporan.
  
kekurangan dari GTmetrix :
      dalam penggunaan GTmetrix harus menggunakan koneksi internet yang cepat.


Keynote Internet Testing Environment (KITE)

alat pengujian dan pengukur berbasis desktop yang digunakan untuk merekam atau mengedittransaksi web dan menganalis kinerja dari aplikasi web. KITE sangat mudah untuk digunakan dan sebagai salah satu alat yang sudah cukup terkenal didunia.


CloudStatus

CloudStatus adalah alat pengukur web yang berfungsi menelusuri kinerja utama  dari layanan-layanan cloud computing. CloudStatus terdiri dari 5 layanan dasar yang ditawarkan oleh amazon, dan memiliki kemampuan monitoring yang lebih baik.

Jiffy

Jiffy tersedia secara bebas(open source).
Cara kerja jiffy adalah dengan memasukan kode jiffy ke dalam halamanhalaman web yang akan di telusuri. Dengan jiffy kita dapat mengukur page rendering times, melaporkan hasil pengukuran dari web server, aggregate log into database, dan membuat laporan-laporan.

Pembasan berikutnya tentang bagaimana sebuah web perlu dianalisis , yaitu :

1. membantu mengetahui nilai yang akan didapat dari suatu web maupun blog
2. membantu memantau beberapa lama pengunjung yang membuka situs web tersebut
3. membantu mengoptimalkan situs web dalam hal penampilan dan menambah informasi.  

Crawlers

Web crawler adalah suatu program atau script otomat yang relatif simple, yang dengan metode tertentu melakukan scan atau “crawl” ke semua halaman-halaman Internet untuk membuat index dari data yang dicarinya. Nama lain untuk web crawl adalah web spider, web robot, bot, crawl dan automatic indexer.

Web crawl dapat digunakan untuk beragam tujuan. Penggunaan yang paling umum adalah yang terkait dengan search engine. Search engine menggunakan web crawl untuk mengumpulkan informasi mengenai apa yang ada di halaman-halaman web publik. Tujuan utamanya adalah mengumpukan data sehingga ketika pengguna Internet mengetikkan kata pencarian di komputernya, search engine dapat dengan segera menampilkan web site yang relevan.

Ketika web crawl suatu search engine mengunjungi halaman web, ia “membaca” teks yang terlihat, hyperlink, dan konten berbagai tag yang digunakan dalam situs seperti meta tag yang banyak berisi keyword. Berdasar informasi yang dikumpulkan web crawl, search engine akan menentukan mengenai apakah suatu situs dan mengindex informasinya. Website itu kemudian dimasukkan ke dalam database search engine dan dilakukan proses penentuan ranking halaman-halamannya

Crawlers pada search engine

Beberapa contoh web crawler:
1.Teleport Pro
Salah satu software web crawler untuk keperluan offline browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com.

2.HTTrack
Ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan software yang dapat mendownload konten website menjadi sebuah mirror pada harddisk anda, agar dapat dilihat secara offline. Yang menarik software ini free dan dapat di download pada website resminya di http://www.httrack.com

3.Googlebot
Merupakan web crawler untuk membangun index pencarian yang digunakan oleh search engine Google. Kalau website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita karena proses crawling ini.

4.Yahoo!Slurp
Kalau Googlebot adalah web crawler andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh Inktomi Corporation yang diakuisisi oleh Yahoo!.

5.YaCy
Sedikit berbeda dengan web crawler  lainnya di atas, YaCy dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan menggunakan java, dan didistribusikan pada beberapa ratus mesin computer (disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk berbagi index, sehingga tidak memerlukan server central. Contoh search engine yang menggunakan YaCy adalah Sciencenet (http://sciencenet.fzk.de), untuk pencarian dokumen di bidang sains. 

Cara Memasukan Halaman Web Kita ke Dalam Google Crawlers

Tips Agar Sering didatangi oleh Google Crawlers pertama : membuat sitemap dan atau daftar isi Sitemap (peta situs) blog berfungsi membantu search engine bot menjelajahi, menemukan dan mengindeks konten blog kita. Jika blog anda berplatform wordpress.org, cara paling mudah membuat sitemap adalah dengan memasang plugin bernama Google XML sitemaps. Sitemap sebenarnya hampir sama dengan halaman daftar isi yang sering kita buat di blog, hanya sitemap berisi kode-kode HTML yang dibaca oleh bot sedangkan daftar isi untuk dibaca oleh manusia. Jika anda ingin sitemap yang juga berfungsi sebagai daftar isi, gunakan plugin bernama Dagon Sitemap Generator. Beberapa themes seperti GoBlog Themes sudah menyediakan sitemap secara default.

Tips Agar Sering didatangi oleh Google Crawlers kedua : mendaftarkan sitemap di Google Webmaster Tools
Sitemap blog anda perlu didaftarkan di Google Webmaster Tools. Google webmaster sendiri penting diikuti oleh semua pemilik blog agar anda dapat menganalisa semua data yang berkenaan dengan blog anda. Melalui uji sitemap, kita bisa mengetahui konten mana di blog yang belum terindeks Google. Daftarkan dulu blog anda di Google Webmaster Tools.

Tips Agar Sering didatangi oleh Google Crawlers ketiga : internal link
Internal link merupakan teknik onpage optimization, yaitu salah satu cara yang digunakan dalam SEO untuk meningkatkan online visibility dari sebuah blog. Internal link adalah link yang mengarah ke dalam blog kita sendiri. Buatlah link tersebut relevan dengan topik yang sedang dibahas. Berapa banyak internal link yang perlu ditambahkan dalam 1 artikel ? Tidak ada patokan, namun buatlah minimal 2 saja. Satu link mengarah ke homepage dan 1 link mengarah ke artikel lain yang kategorinya sejenis atau bahkan mengarah ke artikelnya itu sendiri. Internal link ini sama fungsinya seperti sitemap yaitu memudahkan Google Crawlers menjelajahi blog kita.

Cara kerja crawlers

Tipe dasar dari mesin pencari adalah menggunakan robot yang biasa disebut crawlers atau spider.

Mesin pencari menggunakan jaringan internet untuk mengindeks seluruh website. Ketika kita memasukkan halaman website ke sebuah mesin pencari dengan melengkapi apa yang mesin pencari butuhkan untuk memasukkan halaman website, “spider” mesin pencari akan mengindeks/mendata seluruh website kita. Sebuah “spider” adalah program otomatis yang berjalan melalui sistem mesin pencari. “Spider” mengunjungi sebuah website dengan membaca isi/conten yang teraktual pada Meta Tag website dan juga mengikuti tautan/link yang terkoneksi dengan website tersebut. Kemudian spider akan kembali ke pusat penyimpanan data dengan semua informasi yang telah didapatkannya dimana data itu telah terindeks/tersusun. Beberapa spider hanya menyusun beberapa nomor dari halaman website kita, jadi jangan membuat website dengan 500 halaman!

Secara teratur spider akan kembali ke sebuah website untuk mengecek segala informasi yang telah berubah. Penentuan frekuensinya tergantung pada para moderator dari mesin pencari. Spider hampir mirip seperti buku yang berisi tabel-tabel, isi yang teraktual dan tautan juga referensi untuk semua website itu ditemukan ketika memulai pencarian dan mungkin tersusun dari jutaan halaman sehari.
Contoh mesin pencari : Google, Excite, Lycos, Altavista dan Yahoo.

Search Engine

Mesin pencari atau Search engine adalah program komputer yang dirancang untuk melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp, publikasi milis, ataupun news group dalam sebuah ataupun sejumlah komputer peladen dalam suatu jaringan. Search engine merupakan perangkat pencari informasi dari dokumen-dokumen yang tersedia. Hasil pencarian umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai hits. Informasi yang menjadi target pencarian bisa terdapat dalam berbagai macam jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam suatu basisdata ataupun direktori web.

Cara kerja Search Engine

1. Proses Crawling
Pada proses ini terdapat istilah spider. Spider ini bertugas mengumpulkan informasi mengenai blog atau situs tersebut. Mulai dari link, struktur HTML, meta tag, judul, hingga konten teks. Spider dapat merayapi blog Anda jika blog anda memiliki file robots.txt. Robots.txt ini berisikan script yang akan diterjemahkan oleh spider sebagai perintah untuk mengumulkan informasi-informasi di atas. Robots.txt juga akan memudahkan spider untuk mengumpulkan data. Proses crawling merupakan proses yang sangat penting, Jika proses crawling tidak berjalan dengan lancar, maka search engine tidak akan mengenali blog Anda.

2. Proses Indexing
Setelah spider sudah mengumpulkan semua informasi blog Anda maka akan disimpan pada database. Penyimpanan ke database ini menggunakan index yang juga mencantumkan alamat URLnya. Penyimpanan ini dilakukan secara berkala untuk mempercepat proses pencarian.

3. Proses Searching
Proses terakhir ini dilakukan berdasarkan perintah pengguna search engine. Ketika user melakukan pencarian dengan keyword yang dikehendaki maka Search engine akan menampilkan database berdasarkan hasil proses indexing. Search engine akan menampilkan judul, cuplikan artikel yang sesuai dengan keyword, dan cuplikan url.

Perbedaan beberapa Searh Engine

Search Engine adalah program komputer yang dirancang untuk membantu seseorang menemukan file-file yang disimpan dalam komputer, misalnya dalam sebuah server umum di web (WWW) atau dalam komputer sendiri. Mesin pencari memungkinkan kita untuk meminta content media dengan kriteria yang spesifik (biasanya yang berisi kata atau frasa yang kita tentukan) dan memperoleh daftar file yang memenuhi kriteria tersebut. Mesin pencari biasanya menggunakan indeks (yang sudah dibuat sebelumnya dan dimutakhirkan secara teratur) untuk mencari file setelah pengguna memasukkan kriteria pencarian. Terdapat bermacam-macam Search Engine seperti : Google, Yahoo, Alltheweb, AltaVista, dll. Kesemuanya memiliki kemampuan seperti yang di jelaskan di atas, akan tetapi dari beberapa Search Engine tersebut kesemuanyapun mempunyai keunggulan dan kekurangannya masing-masing. Berikut adalah karakteristik-karakteristik dari beberapa Search Engine tersebut.

Google : Google : Google dikenal sebagai alat pencarian yang paling cerdas. Meski kita hanya secara sederhana melakukan pencarian dengan memasukkan kata atau beberapa kata saja, Google akan secara otomatis melakukan pencarian dengan logika Boolean dengan menggunakan batasan-batasan AND, NOT, PHRASE, dan OR. Google tidak mendukung pemotongan (truncation), penambahan dan tidak membedakan bentuk huruf besar atau kecil (case sensitive). Kelebihan lain ialah Google menggunakan relevansi dan linking, yaitu jumlah tertentu halaman-halaman sejenis yang berhubungan dengan halaman yang dicari. Google bahkan memungkinkan kita melakukan pencarian dengan menggunakan simbol-simbol tertentu, misalnya untuk stock quotes, peta , dan memberikan pilihan 60 bahasa. Google juga menyediakan file-file berekstensi PDF yang jarang dihasilkan oleh alat-alat pencari lainnya.

Altavista : Altavista : Ciri utama AltaVista yang dapat mengindeks sebanyak lebih dari 550 juta halaman situs ialah penggunaan analisa relevansi teks dan juga penggunaan logika Boolean. Pencarian dapat dilakukan dengan menggunakan kata atau frasa yang tepat sesuai dengan topik yang dicari. Pencarian dapat dibatasi hanya pada bagian-bagian tertentu, misalnya judul, jangkar (anchor), host, link, applet, gambar, dan URL. Keunggulan utama Alta Vista ialah kemampuan menggabung pencarian hanya dengan satu kali pencarian saja.

Alltheweb : Alltheweb : Metode pencarian dalam web ini menggunakan logika Boolean. Kita dapat membatasi pencarian hanya pada judul, teks, nama link, URL, link, bahasa dan domain. Ranking pencarian didasarkan pada relevansi, analisa link, penempatan teks pada halaman tertentu, dan penggunaan kata kunci.

Yahoo : yahoo : Yahoo tidak menggunakan robot dalam membuat direktori informasi, web ini bergantung pada jumlah web site yang didaftarkan di direktori mereka. Sekalipun demikian Yahoo sangat selektif dalam menerima situs-situs yang didaftarkan. Karena Yahoo tidak mempunyai jangkauan yang luas, maka web ini menyediakan mesin pencarian milik Google sebagai pelengkap.

Web Archiving

Pengarsipan web (web Archiving) adalah proses mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa datang. Besarnya ukuran Web membuat arsiparis web umumnya menggunakan perangkak web untuk pengumpulan secara otomatis. Organisasi pengarsip web terbesar yang menggunakan ancangan perangkak web ini adalah Internet Archive yang berupaya memelihara arsip dari seluruh Web. Perpustakaan nasional, arsip nasional, dan berbagai konsorsium organisasi lain juga terlibat dalam upaya pengarsipan konten Web yang memiliki nilai penting bagi mereka. Perangkat lunak dan layanan komersial juga tersedia bagi organisasi yang ingin mengarsipkan konten web mereka sendiri untuk berbagai keperluan.

Cara Kerja Web Archiving

Metode Pengarsipan Beberapa metode yang populer dari Web pengarsipan termasuk panen jauh, pengarsipan on-demand, pengarsipan database, dan pengarsipan transaksi.

Panen jarak jauh adalah metode pengumpulan informasi secara otomatis menggunakan Web crawler. Contoh crawler Web populer termasuk Heritrix, HTTrack, Offline Explorer, dan Web Kurator.

On-demand mengacu Web pengarsipan pengarsipan dan mengambil isi internet sesuai dengan kebutuhan spesifik pengguna. Layanan populer meliputi WebCite, Arsip-It, dan Hanzo Arsip.

Database pengarsipan mengacu pada metode pengumpulan konten yang mendasari database-driven situs web dengan mengekstraksi isi database ke skema standar dengan menggunakan XML.

Pengarsipan Transaksional mengumpulkan rincian transaksi aktual antara Web server dan browser Web. Metode ini digunakan untuk menyimpan bukti dari konten dilihat pada halaman Web tertentu pada tanggal tertentu.

Contoh-contoh Web Archiving

Berikut Ini adalah Beberapa Contoh Layanan yg melayani jasa Web Archiving:

Archive-it : Sebuah Layanan Pengarsipan Web Berlangganan yang memperbolehkan sebuah institusi Untuk Membangun, Me-Manage, dan Mecari Arsip web Institusi itu sendiri

Archive.is : Sebuah Layanan Pengarsipan Web Gratis Untuk menyimpan Halaman dan berikut juga Gambar dari sebuah website tertentu. Dan bias menyimpan halaman dari Web 2.0.

Iterasi : Sebuah Layanan Pengarsipan Web yang khusus untuk agensi pemerintahan, organisasi Finansial, brand heritage Dll.

Anggota Kelompok :

  • Olanda Eka Putra                  55411460
  • Rizky Fauzi Ruslan                56411376
  • Syarief Hidayat                     59411297
  • Syarofi Azamy                      58411266
  • Yosi Septian                         57411584

Sumber :

0 komentar:

Posting Komentar

Indonesia Flag Orb