Tutorial REST API CRUD dengan NodeJS

Setelah mengenal REST API pada post sebelumnya di Pengantar REST API, saya akan membuat contoh REST API untuk CRUD dengan contoh model yaitu User. Desain REST API Berikut adalah desain API yang akan saya buat, System Requirements Untuk dapat membuat API ini, saya menggunakan perangkat sebagai berikut: NodeJS LTS dengan NVM, pemasangan dapat dibaca di Setup NodeJS dan MongoDB di Linux. MongoDB, dapat gunakan tautan yang sama untuk contoh pemasangannya. Postman, dapat diunduh melalui getpostman....

October 3, 2016 · 5 min · 928 words · Me

Pengantar REST API

REST API banyak digunakan saat akan membuat aplikasi. Dengan REST API saya dapat membuat aplikasi yang multiplatform, karena saya tidak perlu implementasikan fungsi-fungsi CRUD (misalnya) pada tiap platform. Saya cukup menggunakan API yang disediakan untuk memanipulasi basis data yang digunakan aplikasi. Gambar diatas merupakan diagram dari REST API. Biasanya pada REST API memanfaatkan HTTP Request, misal seperti GET untuk ambil data, POST untuk masukkan data, PUT untuk pembaharuan data, DELETE untuk hapus data....

September 30, 2016 · 1 min · 170 words · Me

Setup Node.JS dan MongoDB di Linux

Node.JS dan MongoDB adalah perangkat lunak populer saat ini. Platform Node.JS dan Database MongoDB banyak digunakan untuk membuat aplikasi real-time. Pada kesempatan ini saya akan melakukan setup dan konfigurasi Node.JS dan MongoDB di Linux. Setup Node.JS Beberapa distribusi Linux sudah terdapat paket Node.JS di repositorinya. Tetapi, kali ini saya akan memasangnya dengan Node Version Manager (NVM) oleh creationix. Karena, NVM memungkinkan user menggunakan beberapa versi node.js dan lebih baik dalam manajemen paket (tidak mengganggu sistem, pemasangan paket global tidak perlu akses root)....

September 20, 2016 · 2 min · 253 words · Me

Twitter Mining with R : Tweet Analysis, Bagian 3

Pada post sebelumnya di Twitter Mining with R : Tweet Analysis, Bagian 2, saya sudah mencoba untuk melakukan Text Cleaning untuk dataset yang ada. Selanjutnya, pada bagian ini saya akan mencoba membuat statistik term frequency dan juga membuat wordcloud dari term document frequency. Statistik Terms Frequency Sebelumnya, saya memiliki variabel tdm yang merupakan term document frequency. Nah, untuk membuat plot statistik frekuensi term saya menggunakan ggplot2, terlebih dahulu install paket ggplot2 dengan perintah install....

June 13, 2016 · 2 min · 299 words · Me

Twitter Mining with R : Tweet Analysis, Bagian 2

Pengantar Pada tulisan ini akan melanjutkan proses selanjutnya setelah mendapatkan data dengan Twitter API. Jika ingin mengunduh dataset tanpa mengambil online dari twitter, silakan unduh melalui link berikut : Tweet @RadioElshinta Stopwords Indonesia Text Cleaning Setelah akuisisi data, langkah selanjutnya adalah Text Cleaning . Tahapan ini meliputi sub-proses antara lain stopwords removal, whitespaces stripping, dan stemming. library(tm) library(SnowballC) load(file = "elshinta.RData") tweets.df <- twListToDF(tweets_data) corpus <- Corpus(VectorSource(tweets.df$text)) # lowercase konten corpus <- tm_map(corpus,content_transformer(tolower)) # hapus url, dan tanda baca removeURL <- function(x) gsub("http[^[:space:]]*", "", x) corpus <- tm_map(corpus, content_transformer(removeURL)) corpus <- tm_map(corpus, removePunctuation) # buat stopwords Indonesia file_stop <- file("stopwords....

June 12, 2016 · 1 min · 199 words · Me