Teknologi Digital Baru
New Digital Technologies
Teknologi digital berkembang pesat. Faktanya, umat manusia telah membuat langkah besar dalam hal ini dalam beberapa dekade terakhir. Logikanya, akan ada teknologi baru yang muncul sesekali serta beberapa yang lebih tua berkembang secara bersamaan. Contohnya sebagai berikut:
Virtual Reality (VR) & Augmented Reality (AR)
Baik VR dan AR bukanlah sesuatu yang sama sekali baru dan telah ada selama beberapa tahun sekarang, baru-baru ini memasuki bisnis yang berbeda termasuk real estat. Realitas virtual dan augmented reality telah digantikan oleh realitas campuran, juga dikenal sebagai MR, yang tidak lebih buruk dari mereka dalam arti apa pun.
Teknologi VR memberi pengguna perendaman lengkap di dunia virtual. Ini menutup dunia nyata dan memberikan pengalaman yang lengkap. Dengan menggunakan perangkat eksternal yang biasanya berbentuk headset, pengguna dapat "menteleportasi" diri mereka sendiri ke realitas yang sama sekali atau sebagian berbeda.
Artificial Intelligence (AI), Machine Learning (ML), & Deep Learning (DL)
Ketiganya dengan cepat menjadi bagian integral dari dunia bisnis, dan meskipun mungkin tampak serupa, teknologi ini sebenarnya berbeda satu sama lain. Omong-omong, mereka masih tidak bisa menjadi terjemahan manusia, jadi jika Anda perlu menerjemahkan konten atau dokumen Anda, Anda dapat mengalihdayakan terjemahan dengan bantuan The Word Point dan menyelamatkan diri Anda dari sakit kepala dengan cara ini.
Artificial Intelligence atau AI menerapkan kecerdasan manusia ke mesin. AI mencakup segalanya, mulai dari kecerdasan buatan simbolis hingga pembelajaran mendalam. Sederhananya, setiap kali mesin menyelesaikan tugas berdasarkan seperangkat aturan yang memecahkan masalah (alias algoritma), itu disebut AI.
Machine Learning atau ML memberdayakan sistem komputer dengan kemampuan untuk belajar. Ini berfokus pada pengajaran komputer untuk belajar sendiri dengan bantuan data besar dan kemudian membuat prediksi yang akurat.
Deep Learning atau DL adalah subset atau tahap evolusi berikutnya dari ML. Algoritma DL terinspirasi oleh pola pemrosesan informasi di otak kita sendiri. Misalnya, cara kita membuat keputusan dapat direfleksikan dalam algoritma DL. Bagaimana Perkembangan Big Data di Dunia?
Perkembangan Big Data
Selain mengetahui bagaimana perkembangan big data di Indonesia, kamu juga harus memahami awal mula perkembangan big data di dunia sehingga bisa sampai dimanfaatkan dengan baik oleh beberapa perusahaan maupun perkembangan bisnis kecil di Indonesia. Nah, berikut ini perjalanan pesat perkembangan big data.
Awal mula sejarah big data ini dimulai pada tahun 1963, ketika John Graunt mencatat dan memeriksa semua informasi tentang penyebab kematian di London. Dalam catatan data analisis statistik pertama, Ia mengumpulkan temuan dalam buku Natural and Political Observation Made on the Bills of Mortality.
Kemudian pada tahun 1887, Herman Hollerith menemukan mesin komputasi untuk membaca lubang yang dibuat pada kartu kertas dan mengatur data sensus.
Pada tahun 1937, administrasi Franklin D. Roosevelt di Amerika Serikat. Proyek tersebut muncul setelah undang-undang jaminan sosial menjadi hukum yang berlaku di tahun 1937. Proyek tersebut membuat pemerintah harus melacak kontribusi 26 juta orang Amerika dan lebih dari 3 juta pemberi kerja. IBM dipercaya menyelesaikan Proyek besar ini dengan membuat mesin hole punch card.
Kemudian pada tahun 1943 mesin pengolah data pertama kali muncul dan dikembangkan oleh Inggris untuk memecahkan kode tentara Nazi selama perang kedua. Perangkat tersebut disebut Colossus dan memiliki tugas untuk mencari pola dalam pesan yang disadap oleh Inggris.
Pada tahun 1952 badan keamanan nasional Amerika dibentuk dan dalam waktu lebih dari 10 tahun mereka sudah mengontrak 12000 orang ahli kriptografi, sebab dihadapkan dengan data yang sangat banyak selama perang dingin.
Pada tahun 1965 pemerintah Amerika Serikat memutuskan bahwa pusat data pertama dan menyimpan lebih dari 742 juta pengembalian pajak. Ada 175 juta sidik jari untuk mentransfer semua catatan tersebut kepada komputer magnetik dan harus disimpan di satu lokasi.
1989, perkembangan big data yang cukup pesat berjalan dimana ilmuwan komputer Inggris bernama tim Berners-Lee menciptakan World Wide Web dengan tujuan fasilitas diproses berbagai macam informasi menggunakan hypertext.
Di tahun 2005 Roger Mougalas dari O’Reilly Media, menciptakan istilah big data pertama kali dan mengacu pada kumpulan data besar yang hampir tidak mungkin dikelola menggunakan alat intelijen bisnis tradisional.
Artificial Intelligence dari Tahun ke Tahun
Seperti yang sudah disampaikan sebelumnya, benih kecerdasan buatan sudah ditanamkan sejak para filsuf mengeluarkan teori-teori yang menjadi landasan perkembangan kecerdasan buatan. Siapa sajakah para ahli tersebut dan apakah kontribusinya?
Tahun 1900
Pada sekitar tahun ini, muncul filsuf yang mengeluarkan teori-teori matematika yang menjadi landasan mesin komputer atau kecerdasan buatan. Beberapa filsuf tersebut adalah George Boole, Alfred North Whitehead, dan Bertrand A. W. Russell.
George Boole adalah seorang matematikawan yang menemukan Aljabar Boolean. Ilmu ini menjelaskan operasi logika. Dengan aljabar ini, bisa dibuktikan nilai kebenaran true atau false yang direpresentasikan dengan digit biner 0 dan 1, sama seperti bahasa yang digunakan mesin komputer saat ini. Semua data yang disimpan, diolah, dan disajikan oleh mesin komputer berbentuk angkan atau bit.
Tahun 1930
Pada era 1930-an, muncullah Alan Turing, Claude Shannon, dan John von Neumann. Alan Turing adalah salah satu tokoh penting dalam perkembangan teknologi. Ia adalah penemu Turing Machine dan teori Tes Turing yang bisa menguji tingkat kecerdasan suatu mesin komputer. Pada era sekarang, Tes Turing dapat kita lihat pengaplikasiannya dalam fitur tes CAPTCHA.
Tahun 1950
Perlu diingat bahwa memasuki era 1950-an, dunia sudah memiliki komputer digital. Komputer muncul pertama kali pada 1946 sesudah Perang Dunia II. Awalnya, komputer diciptakan di Amerika untuk keperluan perang, namun karena perang sudah berakhir, mesin komputer tersebut digunakan oleh Departemen Statistik untuk mengolah data besar demi kepentingan negara.
Tahun 1980
Era 1980-an dikenal juga sebagai second wave of AI. Para ahli yang berkontribusi dalam era ini adalah David Rumelhart, Lotfi Zadeh, John Holland, Lawrence Fogel, Ingo Rechenberg, dan John Koza. Hasil penemuan mutakhir di era ini adalah sebagai berikut:
Learning of MLP
Fuzzy logic
Genetic algorithms
Evolutionary programming
Evolution strategy
Genetic programming
Tahun 2000
Perkembangan kecerdasan buatan yang ketiga bermula pada era 2000-an saat komputer dan internet sudah ada. Adapun produk-produk perkembangannya meliputi penemuan World Wide Web atau WWW oleh Tim Berners-Lee pada 1989, Internet of Things oleh Kevin Ashton pada 1999, sistem cloud yang dimulai dari 1950 dan terus dikembangan hingga 1990-an, munculnya istilah big data oleh John R. Mashey pada 1998, dan deep learning oleh Geoffrey Hinton pada 2006.
Dampak Positif (Kelebihan)
1. Bisa menyimpan data yang tidak terbatas (disesuaikan dengan kebutuhan). Hal ini memungkinkan Anda bisa menjalankan suatu program yang kompleks dengan lebih baik dan aman. Misalnya manajemen database sekolah, dsb.
2. Memiliki ketepatan dan keakuratan dalam mengerjakan tugasnya. karena sudah diprogramkan, maka AI dapat bekerja dengan lebih akurat dibandingkan dengan kecerdasan alami.
3. Menggantikan tugas manusia yang berulang-ulang dan bersifat rutinitas, misalnya dalam pembelajaran seperti proses koreksi dan penilaian hasil belajar siswa.
Dampak Negatif (Kekurangan)
1. Membuat Guru dan Murid Menjadi Lebih Malas. Hal ini terjadi karena sebagaian besar aktivitas sudah dikerjakan secara otomatis oleh AI.
2. Menghilangkan Pekerjaan Manusia. Ketika Ai digunakan untuk urusan adminstrasi di sekolah, tidak menutup kemungkinan akan menghilangkan peran tata usaha di sekolah.
3. Tidak Memiliki Common Sense. AI memang mampu belajar dan bekerja sendiri layaknya manusia. Hanya saja AI tidak dapat memahami tujuan dari informasi itu dibuat. Karena pemahaman menyeluruh hanya bisa dimiliki manusia.
Salah Satu contoh implementasi AI dalam kehidupan sehari-hari adalah; Membuka ponsel
Salah satu hal pertama yang dilakukan banyak orang di pagi hari adalah membuka ponselnya. Ketika membuka smartphone dengan biometrik, seperti face ID, kita sedang memanfaatkan AI.
Apple FaceID, misalnya, bekerja dengan menempatkan 30.000 titik inframerah yang tak terlihat pada wajah kita dan merekam image dari wajah kita. Kemudian Face ID akan menggunakan algoritme machine learning untuk membandingkan hasil pemindaian itu dengan data tentang wajah kita yang sudah disimpan sebelumnya. Hasil perbandingan ini digunakan Face ID untuk mengizinkan ponsel untuk dibuka atau tidak. Apple mengklaim bahwa peluang seseorang bisa mengelabui Face ID adalah satu di antara satu juta.



Comments
Post a Comment