Mari Kita Menolong Sesama

Rasanya udah lama banget saya ga posting yah. Berderet-deret film telah saya tonton, dan belum ada satu review yang saya perbarui di blog karatan ini. Ah saya lebih tertarik menulis tentang film Indonesia dengan rating bintang (bukan kancut) daripada film luar.

Eniwei, mau membantu orang? Dapet pahala loh, gede lagi. Gini, coba bisa tolong klik di bawah ini

http://fit.sgu.ac.id/

Intinya si temen saya ini sedang menyelesaikan skripsinya yang sudah tertunda 2 semester. Kasian kan kalo doi harus ngulang semester lagi. Nah, di link itu, coba deh tulis-tulis komen di forumnya. Trus coba cari tau siapa sebenernya temen saya ini. Siapa tau juga si temen saya itu dapet jodoh dari yang kebetulan drop komen di link tsb. FYI, temen saya itu udah menjomblo cukup lama loh. Saya khawatir aja kalo kelamaan dia bakal berubah orientasi.

Oh iya, loginnya bisa pakai username di bawah ini:

username: guest
password: password

Buat yang penasaran, nih saya kasih fotonya

Nah, ganteng kan. Terpelajar lagi. Ah, saya kyk lg promosi temen yah. Bentar lg paling saya ditimpuk sendal ama orangnya.

Terima kasih bagi yang sudah membantu. Semoga diberikan pahala yang setimpal oleh Tuhan yang Maha Kuasa. Amin. Continue reading

Advertisements

OFSE Report

Pertama-tama saya ucapkan Alhamdulillah atas kehadirat Allah SWT karena dengan rahmat dan rizkinya saya bisa lulus OFSE dengan nilai baik. Sebagai kata sambutan pertama, mari kita lihat hasil OFSE saya terlebih dahulu.

Programming: 65
Database: 88
Computer Network: 91
Internet-Intranet: 97
Multimedia: 98
————————-
Rata-Rata: 88

Terima kasih sebesar-besarnya untuk Ayah dan Bunda untuk segala doa, support dan sayangnya. Nilai ini saya persembahkan untuk Bunda yang baru kemarin, 28 Februari, berulang tahun. Untuk Ayah, saya persembahkan thesis, karena memang isi dari thesis saya selalu untuk Ayah. Saya pasti berjuang untuk dapat A.

Berikutnya, rasa terima kasih saya ucapkan kepada seluruh examiner dan observer yang sudah memberikan saya nilai, terutama kepada Bapak Charles Lim dan Bapak Kho I Eng yang sudah begitu baik memberikan saya nilai setinggi itu untuk Computer Network saat saya sudah habis-habisan sambil keringetan waktu menjawab semua pertanyaan yang bertubi-tubi itu.

Terima kasih pula kepada seluruh teman-teman IT2005 yang sudah membantu saya belajar untuk OFSE ini, terutama untuk yang ambil Internet-Intranet *smuanya dong =)*, Computer Network dan Multimedia. Karena bantuan kalian semua saya bisa dapet nilai setinggi itu.

Lalu, terima kasih untuk Bonggas dan Nina yang sudah membantu saya memecahkan masalah sehingga membuat saya menjadi lebih konsentrasi pada saat OFSE yang begitu krusial bagi saya. I love u, guys.

Akhirnya, terima kasih untuk semua pihak yang tidak mampu saya tulis disini. Terima kasih banyak. Saya pasti berjuang untuk thesis saya dan bekerja keras hingga dapat A.

Mid-break

Saat ini OFSE adalah hal yang paling mengerikan buat gw. Kenyataan bahwa lulus atau engganya gw di ujian ini menentukan nasib thesis gw, bikin gw jantungan dan mengerahkan segenap kemampuan supaya lulus. Dua subject udah gw lewatin, hasilnya ga terlalu signifikan, biasa aja. Mari kita evaluate satu-satu subject yang udah gw lalui.

Selasa, 17 Februari 2009. Inter-Intranet.
Alhamdulillah berjalan lancar. Gw ga terlalu hesitate jawab pertanyaan. Namun.. namun.. namun.. besoknya gw baru sadar kalo array yang gw bikin itu salah. Ahahahaha. Kalo gw bikin array dg bentuk yg kek kemaren..

$table = array("Name" => array("a", "b", "c"),
"City" => array("x", "y", "z"),
"Status" => array("p", "q", "r"));

Maka bentuknya adalah si index array itu akan menjadi nama untuk tiap rownya. Sedangkan kalo index array itu mo dijadiin sebagai judul tiap kolom maka harusnya arraynya bentuknya sebagai berikut.

$table = array(array("Name" => "a", "City" => "x", "Status" => "p"),
array("Name" => "b", "City" => "y", "Status" => "q"),
array("Name" => "c", "City" => "z", "Status" => "r"));

Ah, tak apa lah. Yang penting udah lewat ofsenya. Itu mungkin efek samping dari deg-degan dan panik dibawah sadar gw.

Rabu, 18 Februari 2009. Programming.
Apa yang seru dari hari kedua? Mengingat gw maju pertama di hari ini, dan sebelomnya gw udah belajar bocoran soal, maka harusnya saya cukup yakin dengan apa yang akan gw hadapi. Tapi nyatanya, SOALNYA BEDA.

Gw kaget pas liat soalnya. Berpikir kalo pada saat itu tangan gw lagi ga hoki walopun gw udah baca doa supaya diberi kemudahan. Tapi karena diluar prediksi semula, maka yang udah gw pelajarin tiba-tiba ilang, bablas dari otak gw. Oh tidak.

Dan hal ketiga yang bikin hari kedua OFSE gw itu mengerikan adalah adanya acara koding live. Seumur-umur gw belom pernah ngoding dengan kodingan yang dipajang segede-gede gaban didepan trus ditonton banyak orang. Pak basuki pernah, Yayok pernah, tapi gw. Oh Tuhan, itu sungguh menyeramkan sangat. Hasilnya pas ngetik tangannya gemeteran dan ketika dapet eror dikit, langsung panik dan keringet dingin menjalar tubuh. Hasilnya kurang memuaskan, looping while() dan do..while() ga bs gw selesein karena panik. Padahal setelah keluar dari ruangan, gw bisa ngoding dengan tenang.

Kodingan while() dan do..while() pertama yang gw buat menghasilkan infinite loop. Sungguh bodoh, ketuker symbol lebih besar dan lebih kecil. Lalu setelah semuanya berakhir gw buat ulang, di laptop gw sendiri dan hasilnya bisa.

public class Looping{
public static void main(String args[]){
int x = 0;
while(x>5){
System.out.println(x);
x++;
}


x=0;
do{
System.out.println(x);
x++;
}
while(x<5);
}
}

Semudah itu dan gw ga bisa buat. Sungguh malu-maluin.

Abis OFSE ituh, muka gw tampangnya biasa ajah, tapi keinginan untuk makan eskrim sungguh menggebu-gebu. Akhirnya gw kabur ke citos dengan niatan mo makan coldstone. Eh ternyata coldstonenya tutup. WTF!!! Gw ke JCo dan manggil Bonggas dateng ke citos buat nemenin gw. Kita ngobrol lama banget sampe jam 9 lewat. Ahahaha. Stress berat deh pokoknya.

Sekarang break dulu. Sambil baca-baca computer network buat selasa depan. Semoga selasa depan bisa berlangsung dengan baik. Amin.

OFSE: Bring it on

Mulai besok, ujian yang judulnya OFSE dimulai. Untuk minggu depan, gw dapet jatah hari selasa dan rabu. Lalu di minggu selanjutnya bertarung pada hari selasa, kamis dan jumat. Karena sedang butek belajar multimedia, gw iseng-iseng nulis dulu.

Mo nulis apa ya? Pokoknya siapa pun yang membaca ini, saya minta doanya supaya ofse saya lancar. Cukup deg-degan juga walaupun ini ga ada bedanya dengan quiz harian di kelas. Tapi masalahnya adalah, si penguji itu ditemani oleh seorang observer juga yang ntah tugasnya apaan. Dan yang paling penting itu adalah kita ga boleh bawa satupun kertas ke ruangan itu. Teguhkanlah hatimu, nak.

Selama dua minggu ini pula gw harus extra jaga kesehatan gw. Yang judulnya sakit-sakitan itu diharamkan karena minggu ini cukup krusial mengingat kalo gw udah lulus ofse, maka gw boleh bikin thesis. Kalo misalnya (jangan sampe), ada yang ga lulus, maka wajib ngulang semua mata kuliah yang dipilih utk ofse lalu repetitionnya itu di akhir semester 8 yang intinya ga bakalan bisa bikin thesis. Oh kejamnya kampusku ini.

Tidur cukup, makan cukup. Sudah cukup itu saja yang jadi prioritas utama. Masalah pelajaran mah masi bisa diakalin. Toh gw udah belajar juga dari kmrn2, asumsinya minimal bisa jawab pertanyaan lah. Tapi aklo udah sakit kan, walopun udah belajar mati2an juga hasilnya mungkin aja bisa lebih buruk. Tau sendiri gw kalo udah sakit lemotnya bisa 3x lebih buruk dari biasanya. Mata sudah sepet, mari kita sudahi saja perbincangan kali ini. Istirahat lebih penting daripada belajar semalem suntuk.

Introducing: Matauranga

Blog keroyokan yang tujuan dibuatnya sebagai media penyambung antara dosen dan anak IT semester 7 yang sedang menulis thesisnya. Berisikan segala macem update, reading paper dan software yang dibutuhkan untuk dalam konstruksi thesis kami. Idenya dari Kak Yayok dan Pak Alva.

Linknya sudah saya taruh di Blogroll section. Silahkan dibuka dan dilihat keadaannya. Page saya judulnya: Uul. Happy reading.

PS: Front pagenya boleh dicoret-coret ga sih? Gatel deh tangan ngeliat page kosong gitu.

[Review] Text Categorization with Support Vector Machines: Learning with Many Relevant Features

I reviewed this paper for my Research Methodology assignment and also to help me in doing my thesis. Like usual, I apologize for any sentence indicating as plagiarism.

Author: Thorsten Joachims

Year : 1998

Appear in: Proceeding of the European Conference on Machine Learning, Berlin, Germany

Page : 137-142

Text categorization aims in classifying documents into fixed number of categories which are previously defined. Developing manual text classifiers is difficult and time-consuming, however, by using machine learning it is beneficial to determine classifiers from examples which automatically applies the category. From reasons previously stated, this paper elaborates the advantageous of Support Vector Machines (SVMs) for text categorization.

Transforming documents into an appropriate representation for the learning algorithm and the classification task is the first step in text categorization. Each distinct word wi in documents which occurs for certain number of times is corresponded to a feature. The word considered as features if it appears in the training set at least 3 times and it is not stop-word (like “and”, “or”, etc). This model of representation leads to thousands of dimension features spaces which needs feature subset selection to improve generalization accuracy and to avoid overfitting. To select a subset of features this paper applies the information gain criterion as recommended by Y. Yang and J. Pedersen.

According to V. Vapnik, Support Vector Machines are based on the Structural Risk Minimization principle from computational learning theory. Structural Risk Minimization means obtaining hypothesis h such that the lowest true error can be guaranteed, where true error of h is the probability that h will make an error on randomly selected examples. SVMs have the ability to independently learn the feature space dimensions, thus make the hypothesis complexity can be measured by the margin which separate the data, not the number of features.

In this paper, also, Joachims explains the properties of text so that it applies well with the Support Vector Machines. Firstly, text has high dimensionality of input space which means it has significant number of features. However, SVMs exploit overfitting protection, hence they are possible to manage such problems. The second reasons is text only has small amount of irrelevant features. In order to have good performance, classifiers should capable of handling dense features. Third, document vectors are said to be sparse. According to Kivinen et al. logarithmic mistake bound models are applicable for such problems and it has similar inductive bias like SVMs. Giving these evidences, SVMs are expected to handle problems with dense concepts and sparse instances. Lastly, Joachims states that most text categorization are linearly separable. From the experiments done, Joachims proves that the two collection of data set used as evaluation are mostly linearly separable. Since the idea of SVMs is to find linear separators, this argument applies to SVM as well.

As previously stated, Joachims uses two data set collection in his experiments, the “ModApte” split of the Reuters-21578 dataset compiled by David Lewis and the Ohsumed corpus compiled by William Hersh. The experiments are done by comparing the performance of SVMs using polynomial and radial basic function (RBF) kernels with other four conventional methods that popularly used as text classifiers; naïve Bayes classifiers, the Rocchio algorithm, k-nearest neighbor classifiers, and the C4.5 decision tree with each method represents different machine learning concept.

The first dataset, “the ModApte”, consists of 9603 training set and 3299 test set leading to 9962 distinct terms in the training set aftermath. Meanwhile, in the second dataset, the Ohsumed collection, from 50216 documents which have abstracts, only the first and the second 10000 are used for training and testing respectively resulting in 15561 distinct terms afterwards.

The result on the Reuters corpus are shown in table below containing the precision/recall-breakeven point of the ten most frequent Reuters categories to measure the performance and microaveraged performance over all Reuters categories as tools to obtain a single performance over all binary classification task.

tes1

From the table we can infer that among the conventional methods, k-nearest neighbor classifiers performs the best with microaveraged of 82.3 and compare to all conventional methods, SVMs performs much better with microaveraged of 86.0 for polynomial and 86.4 for radial basic function. In SVM polynomial degree 5, although using all 9962 features and hypothesis spaces are complex, there is no overfitting occurs. SVMs are more expensive than naïve Bayes, Rocchio and k-NN in the training time, however, compare to C4.5, SVMs are almost similar.

In conclusions, SVMs are proved to be applicable for text categorization. SVMs have the capability to generalize well in high dimensional feature spaces so that it requires no feature selection. Besides, SVMs are robust, outperforming other conventional methods in all experiments. Moreover, SVMs can obtain good parameter automatically eliminating the requirement for parameter tuning. Finally, in my opinion, although this paper is very good in providing evidences, it still lack of explanations. I have to read several times in order to understand it since it only provides very short information. For the expert, it may be easy to understand, but for the first-timer like me, it is very hard to understand. Also, the examples provide are not complete. The author only provide result from one dataset only, making it even harder to get the important idea of the paper itself.

Multimedia Project Result

I’ve told u I made animation for my multimedia assignment, didn’t I?

Here is the video look like.

The theme is global warming. We made it using stop motion and cutout animation techniques. Our goal so that young people, teens, like us are encouraged to preserve the earth.

The video is about 2:41 long. Made of about 200 pictures for the stop motion animation. For the cutout animation, we used flash as the tools. The audio played in this clip was taken from Rattatouille original soundtrack, “Remy Drives a Linguini”.

Enjoy our video.