Sabtu, 07 Juni 2014

Web Analysis

SoftSkill





Assalamu’alaikum..


Halloo.. Sobat Blogger semua,kita berjumpa lagi deh hehe....
Dan pada postingan kali ini, saya akan membahas tentang Web Analysis.


Lagi-lagi sebelum mulai pembahasan, saya ingin perkenalan dulu nih...
Yang pertama adalah saya(lagi), hehe bukan bermaksud mendahului(lagi), tapi karena ini blog saya, jadi saya yang di perioritaskan dong hehe... (dan lagi-lagi)


Nama : Ryan Novari D.A
Kelas : 2IA02
NPM : 56412752

Nah, selanjutnya saya perkenalkan nama anggota kelompok saya, diantaranya :


Belacio Maekaratri Syam ( 514-124-07 )


Dheyan Yusuf ( 514-129-89 )


Muchammad Afrizi ( 544-127-43 )


Setelah puas berkenalan, mari kita kembali pada topik pembicaraan.


Sesuai janji saya, bahwa setelah sebelumnya saya mem-posting Web Science, Sejarah Web, Arsitektur Web dan Applikasi Utama-nya, Web Management, Web Content. Nah kali ini saya menulis Artikel tentang Web Analysis. Ini memang ada kaitannya dengan Artikel yang sebelumnya..


Oke deh langsung saja yah Check it out...


Pengukuran Web


Di bawah ini ada beberapa tools yang digunakan untuk mengeukur website dari segi kecepatan akses dan performanya, serta mengukut banyaknya pengunjung suatu website, berikut ini penjelasan mengenai beberapa tools yang digunakan untuk mengukur kecepatan akses website.

1. Pingdom Tools


Merupakan sebuah alat ukur kecepatan website dapat di akses, nilai dari sebuah website, dan berapa ukuran dari sebuah website tersebut.

Beberapa kelebihannya di kategorikan sebagai berikut :

· Performance Grade : melihat nilai kecepatan performa halaman web, dari akses DNS, browser cache, combine external css dan lain-lain.

· Waterfall : melihat detail kecepatan akses ketika membuka halaman web, dari gambar bahkan sampai seberapa cepat script tersebut dapat di akses.

· Page Analysis : melihat detail analisa halaman web.

· History : melihat detail akses dari beberapa hari lalu.

Kekurangan yang terdapat pada tools ini, sama seperti tools alat ukur akses web pada umumnya yaitu Membutuhkan akses internet yang stabil, karena tidak mungkin kita bisa mengukur kecepatan akses suatu website kalau akses internet kita terhadap website tersebut tidak stabil/berjalan dengan baik. 



2. GTmetrix


Adalah website untuk menganalisa kecepatan web yang tersedia secara gratis, dengan menggunakan google page speed dan Yahoo Yslow sebagai analyze engine dan untuk menampilkan hasil serta rekomendasi yang harus dilakukan.

Dengan GTmetrix juga dapat membandingkan beberapa URL sekaligus dan jika mendaftar sebagai anggota maka dapat:

- Melihat tes sebelumnya untuk membandingkan hasilnya

- Menjadwalkan cek website secara otomatis

- Menyimpan laporan

- Memilih hasil laporan untuk ditampilkan kepublic atau tidak

Kelebihan GTmetrix :
- Dapat menggunakan google page speed dan YSLOW sebagai analyze engine

- Dapat membandingkan beberapa URL sekaligus

- Menjadwalkan cek website secara otomatis

- Dapat menyimpan laporan

- Memilih hasil laporan untuk ditampilkan kepublic atau tidak.

Kekurangan GTmetrix :

- Jika menggunakan GTmetrix harus menggunakan internet yang cepat.



3. Alexa Rank


Alexa Internet, Inc. adalah perusahaan yang berbasis di California yang mengoperasikan situs yang menyediakan informasi mengenai banyaknya pengunjung suatu situs dan urutannya. Alexa Internet didirikan pada tahun 1996 oleh Brewster Kahle dan Bruce Gilliat. Cara kerja Alexa rank Alexa memberikan peringkat ke sebuah situs berdasarkan jumlah pengunjung unik. Semakin rendah alexarank dari situs berarti situs memiliki sedikit pengunjung unik.Jadi jika Anda bisa mendapatkan lebih banyak traffic ke situs Anda, Anda akan mendapatkan lebih rendah alexa rank. 

Kelemahan Alexa:

· Jika pengguna internet (pengakses situs anda tidak menginstal Alexa Toolbar di browsernya) maka sekalipun ada 1000 pengunjung situs anda dalam sehari, Alexa akan tetap menilai situs anda tidak ada pengunjungnya. 

· Jika dalam sehari ada yang mengakses situs anda 20 kali dengan alamat IP (Internet protocol) yang sama, maka akan dianggap situs anda hanya dikunjungi oleh 1 satu orang hanya dapat poin 1, akan berbeda jika situs anda dikunjungi oleh 20 orang dengan alamat IP berbeda (unik) maka situs anda akan memperoleh nilai 20 (nilai ini hanya pengandaian, Alexa mempunyai formula sendiri dalam menentukan nilai sebuah web) . 

Kelebihan Alexa :

· Alexa rank akan menampilkan tingkat popularitas dari sebuah situs web yang dibandingkan dengan web milik kita,termasuk jangkauan,tampilan halaman,dan masih banyak lagi. 

· Pencarian analisa akan menampilkan kepada kita yang merupakan syarat untuk kita untuk berkompetisi untuk mendapatkan sebuah traffic 3.Data pengunjung akan menampilkan kepada kita apa yang menarik dari website kita yang dilihat oleh pengunjun – pengunjung website kita 4.Data clickstream akan menampilkan kepada kita sebagai pemilik website dimana dalam mendapatkan traffic dari program keanggotaan dan kemitraan. 



CRAWLER




            Crawler bertugas untuk mengindeks, membuat rangking, menyusun dan menata halaman dalam bentuk indeks terstruktur agar bisa dicari dalam waktu yang sangat cepat. Obyek dari crawler adalah isi halaman, file, folder dan direktori web, sedangkan subyek dari robots.txt adalah mesin pencari/search engine crawler. Crawler ini penting dipahami untuk SEO. Crawler akan berhadapan dengan robotsg.txt yang akan memandu mesin pencari/search engine seperti google, yahoo dan bing untuk mengindeks sebuat blog atau website, sehingga crawler akan tahu mana halaman, folder atau file yang boleh diindeks atau tidak, semakin lengkap sebuah panduan dalam robots.txt akan lebih baik, dengan demikian robot crawler akan dengan cepat mengindeks isi website, kebanyakan halaman situs berisi link ke halaman lain.



Sebuah spider dapat memulai dari manapun, apabila ia melihat sebuah link kepada halaman lain, maka ia akan segera menuju ke sana dan mengambilnya. Search engine seperti Alta vista mempunyai banyak spider yang bekerja secara pararel. Sangat direkomendasikan untuk tidak menggunakan javascript pada menu utama, gunakanlah tag noscript, hyal ini dikarenakan javascript tidak bisa diambil oleh spider untuk search engine, dan semua link yang mengandung javascript akan ditolak sebagai halaman teks. 

  • Search Engines 


Mesin pencari (search engine) adalah salah satu program komputer yang di rancang khusus untuk membantu seseorang menemukan file-file yang disimpan dalam computer, misalnya dalam sebuah web server umum di web (www) atau komputer sendiri. Mesin pencari memungkinkan kita untuk meminta content media dengan criteria yang spesifik ( biasanya berisikan prase atau kata yang kita inginkan) dan memperoleh daftar file yang memenuhi kriteria tersebut. 

  • Cara Kerja Search Engine

Mesin pencari web bekerja dengan cara menyimpan informasi tertang banyak halaman web, yang diambil secara langsung dari www. Halaman ini di ambil dengan web crawler-browsewr web yang otomatis mengikuti setiap pranala yang di lihatnya. Isi setiap halaman lalu dianalisis untuk menentukan cara mengindeksnya (misalnya kata-kata di ambil dari judul, subjudul, atau field khusus yang di sebut meta tag ). 

Data tentang halaman web disimpan dalam sebuah database indeks untuk di gunakan dalam pencarian selanjutnya. Sebagian mesin pencari seperti Google, menyimpan seluruh atau sebagian halaman sumber ( yang di sebut cache) maupun informasi tentang halaman web itu sendiri. Ketika seorang pengguna menggunakan mesin pencari dan memasukin query, biasanya dengan memasukan kata kunci, mesin mencari akan mengindeks dan memberikan daftar halaman web yang paling sesuai dengan kriterianya. Daftar ini biasanya di sertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teks dari hasil pencarian yang kita cari. 



  • Web Archiving


  • Definisi Web Archiving 

Pengarsipan web (Web Archiving) adalah proses mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa datang.



  • Cara Kerja Web Archiving 
Yang paling umum web pengarsipan teknik menggunakan web crawler untuk mengotomatisasi proses pengumpulan halaman web. Web crawler biasanya mengakses halaman web dengan cara yang sama dengan yang dilakukan user yang menggunakan web browser untuk menemukan website yang ingin dicari.



Contoh-contoh Web Archiving

Berikut Ini adalah Beberapa Contoh Layanan yg melayani jasa Web Archiving:

• Archive-it : Sebuah Layanan Pengarsipan Web Berlangganan yang memperbolehkan sebuah institusi Untuk Membangun, Me-Manage, dan Mecari Arsip web Institusi itu sendiri

• Archive.is : Sebuah Layanan Pengarsipan Web Gratis Untuk menyimpan Halaman dan berikut juga Gambar dari sebuah website tertentu. Dan bias menyimpan halaman dari Web 2.0.

• Iterasi : Sebuah Layanan Pengarsipan Web yang khusus untuk agensi pemerintahan, organisasi Finansial, brand heritage Dll. 



Sumber: 








Tidak ada komentar:

Posting Komentar