Daftar isi
Kecerdasan buatan (AI) telah menjadi salah satu kekuatan teknologi yang paling transformatif, namun akarnya tertanam jauh di masa lalu, bahkan sebelum komputer digital pertama diciptakan [14]. Perjalanan AI bukanlah sebuah garis lurus yang mulus, melainkan sebuah narasi yang penuh dengan terobosan gemilang, periode optimisme yang meluap-luap, diikuti oleh masa-masa kekecewaan dan pemotongan dana yang dikenal sebagai “musim dingin AI” [2, 6].
Sejarahnya adalah kisah tentang evolusi gagasan, dari pemikiran filosofis tentang mesin yang bisa berpikir hingga pengembangan algoritma kompleks yang kini mampu mengemudi mobil, menerjemahkan bahasa, dan bahkan menciptakan karya seni [7, 20]. Memahami dari mana semua ini bermula memberikan konteks krusial tentang bagaimana teknologi AI bisa mencapai titik seperti sekarang dan ke mana arahnya di masa depan. Perjalanan ini dimulai dari pertanyaan-pertanyaan mendasar tentang kecerdasan itu sendiri dan visi para perintis yang berani membayangkan masa depan di mana mesin dapat meniru kemampuan kognitif manusia [4, 5].
Poin-poin Penting
- Asal-usul kecerdasan buatan modern dapat ditelusuri kembali ke fondasi teoretis seperti Turing Test pada tahun 1950 dan model neuron buatan pada tahun 1943, yang berpuncak pada Dartmouth Workshop tahun 1956 di mana istilah “Artificial Intelligence” secara resmi lahir [2, 6, 14].
- Sejarah AI ditandai oleh siklus euforia dan kekecewaan yang dramatis, dari “era keemasan” awal yang penuh optimisme hingga periode “Musim Dingin AI” di mana pendanaan dan minat menurun drastis akibat kegagalan memenuhi janji yang berlebihan [4, 6, 7].
- Titik balik krusial dalam evolusi AI adalah pergeseran dari pendekatan berbasis aturan (seperti pada sistem pakar tahun 1980-an) ke pendekatan berbasis data melalui machine learning, di mana mesin belajar secara mandiri dari contoh, bukan dari instruksi yang diprogram secara eksplisit [4, 7].
- Ledakan AI di era modern dimungkinkan oleh konvergensi tiga faktor kunci: ketersediaan data dalam jumlah masif (Big Data), peningkatan luar biasa dalam kekuatan pemrosesan perangkat keras seperti GPU, dan pengembangan algoritma deep learning yang canggih [7, 12, 13].
Akar Filosofis dan Konsep Awal
Jauh sebelum istilah “kecerdasan buatan” diciptakan, gagasan tentang entitas buatan yang memiliki kecerdasan telah ada dalam mitologi dan fiksi [14]. Namun, fondasi ilmiah untuk AI modern mulai diletakkan pada paruh pertama abad ke-20, ketika para ahli logika, matematika, dan filsuf mulai merumuskan secara formal konsep pemikiran dan komputasi [6]. Momen yang sering dianggap sebagai titik pijak intelektual adalah publikasi makalah “Computing Machinery and Intelligence” oleh matematikawan Inggris, Alan Turing, pada tahun 1950 [2, 5, 14]. Dalam karyanya yang monumental ini, Turing mengajukan sebuah pertanyaan sederhana namun mendalam: “Can machines think?” (Bisakah mesin berpikir?) [6, 7].
Untuk menghindari perdebatan filosofis yang tak berkesudahan tentang definisi “berpikir”, ia mengusulkan sebuah tes praktis yang kemudian dikenal sebagai “Turing Test” atau “Imitation Game” [5, 16]. Ujian ini mengusulkan bahwa sebuah mesin dapat dianggap cerdas jika mampu melakukan percakapan teks dengan manusia sedemikian rupa sehingga manusia tersebut tidak dapat membedakan apakah ia sedang berbicara dengan mesin atau manusia lain [2, 14]. Konsep ini memberikan sebuah tujuan yang konkret dan terukur untuk bidang yang kelak akan menjadi AI [4]. Selain Turing, fondasi penting lainnya diletakkan pada tahun 1943 oleh Warren McCulloch, seorang ahli neurofisiologi, dan Walter Pitts, seorang ahli logika [5, 6].
Mereka mengusulkan model matematika pertama untuk neuron buatan, menunjukkan bagaimana neuron di otak dapat direpresentasikan sebagai sirkuit logika sederhana yang beroperasi dalam mode biner (on/off) [7, 11]. Karya mereka menjadi dasar teoretis untuk pengembangan jaringan saraf tiruan (artificial neural networks), sebuah cabang utama dalam AI modern [5, 6]. Para peneliti ini, bersama dengan tokoh-tokoh seperti Claude Shannon yang mengembangkan teori informasi dan mengeksplorasi ide mesin bermain catur, membangun landasan konseptual yang memungkinkan para ilmuwan generasi berikutnya untuk mulai membangun “mesin berpikir” yang sesungguhnya [6, 14].
Kelahiran Resmi: Dartmouth Workshop 1956
Jika karya Turing dan lainnya adalah peletak fondasi, maka momen kelahiran resmi bidang kecerdasan buatan adalah Dartmouth Summer Research Project on Artificial Intelligence yang diadakan pada musim panas tahun 1956 di Dartmouth College, Hanover, New Hampshire [1, 13]. Acara ini dianggap sebagai peristiwa seminal yang tidak hanya memberikan nama pada bidang baru ini tetapi juga menyatukan para perintis utamanya dan menetapkan agenda penelitian untuk beberapa dekade mendatang [4, 12, 14]. Proyek ini diinisiasi oleh empat ilmuwan muda: John McCarthy dari Dartmouth College, Marvin Minsky dari Harvard University, Nathaniel Rochester dari IBM, dan Claude Shannon dari Bell Telephone Laboratories [1, 6].
Dalam proposal mereka yang diajukan pada tahun 1955, mereka dengan optimis menyatakan keyakinan dasar yang akan menjadi kredo utama penelitian AI: “Studi ini didasarkan pada konjektur bahwa setiap aspek pembelajaran atau fitur kecerdasan lainnya pada dasarnya dapat dideskripsikan dengan sangat presisi sehingga sebuah mesin dapat dibuat untuk mensimulasikannya” [1, 6, 12]. John McCarthy adalah orang yang secara spesifik memilih dan mencetuskan istilah “Artificial Intelligence” untuk lokakarya ini [2, 15]. Ia memilih nama ini untuk membedakannya dari bidang yang sudah ada seperti sibernetika dan teori automata, serta untuk menegaskan fokus pada simulasi aspek-aspek kecerdasan tingkat tinggi seperti kreativitas dan bahasa [6]. Lokakarya ini berlangsung selama sekitar enam hingga delapan minggu dan dihadiri oleh sekitar sepuluh peneliti terkemuka saat itu [1, 6].
Meskipun lokakarya itu sendiri lebih merupakan serangkaian diskusi dan sesi brainstorming daripada sebuah proyek kolaboratif yang menghasilkan satu terobosan besar, dampaknya sangat mendalam [4]. Acara ini berhasil mengkristalkan sebuah komunitas peneliti yang memiliki visi bersama [1]. Dari sinilah muncul para pemimpin generasi pertama AI, termasuk Allen Newell dan Herbert A. Simon yang mempresentasikan program “Logic Theorist,” sebuah program yang mampu membuktikan teorema matematika dan sering dianggap sebagai program AI sejati yang pertama [4, 6, 14]. Dartmouth Workshop secara efektif meluncurkan AI sebagai sebuah disiplin ilmu, memberikan nama, misi, dan para visioner pertamanya, serta memicu gelombang optimisme dan pendanaan yang akan menandai era berikutnya [1, 4].
Era Keemasan Awal dan Optimisme (1956-1974)
Setelah Dartmouth Workshop pada tahun 1956, bidang kecerdasan buatan memasuki periode yang sering disebut sebagai “era keemasan” [6, 11]. Periode yang berlangsung hingga sekitar pertengahan tahun 1970-an ini ditandai oleh optimisme yang luar biasa, kemajuan pesat dalam program-program simbolik, dan aliran dana penelitian yang melimpah, terutama dari lembaga pemerintah Amerika Serikat seperti Defense Advanced Research Projects Agency (DARPA) [4, 6, 7]. Para peneliti pada masa ini percaya bahwa penciptaan kecerdasan setingkat manusia sudah di depan mata. Herbert A. Simon, salah satu perintis dari Dartmouth, pada tahun 1957 secara optimis meramalkan bahwa dalam sepuluh tahun, komputer akan menjadi juara catur dunia dan mampu menemukan serta membuktikan teorema matematika penting [6, 7].
Optimisme ini didorong oleh serangkaian keberhasilan awal yang mengesankan. Program Logic Theorist yang dikembangkan oleh Newell dan Simon, berhasil membuktikan 38 dari 52 teorema pertama dalam Principia Mathematica karya Whitehead dan Russell, menunjukkan bahwa mesin dapat melakukan penalaran logis yang sebelumnya dianggap sebagai domain eksklusif manusia [4, 14]. Mereka kemudian mengembangkan General Problem Solver (GPS), sebuah program yang dirancang untuk meniru pendekatan pemecahan masalah manusia secara umum [6]. Perkembangan penting lainnya adalah di bidang pemrosesan bahasa alami (Natural Language Processing). Pada pertengahan 1960-an, Joseph Weizenbaum dari MIT menciptakan ELIZA, sebuah program komputer yang mampu mensimulasikan percakapan dengan seorang psikoterapis Rogerian [2, 14, 15].
ELIZA bekerja dengan cara mengenali kata kunci dalam input pengguna dan merespons dengan kalimat-kalimat yang telah diprogram sebelumnya [6]. Meskipun secara teknis sederhana, banyak pengguna yang terkesan dan bahkan percaya bahwa mereka sedang berinteraksi dengan entitas yang benar-benar memahami mereka, sebuah fenomena yang kemudian dikenal sebagai “efek ELIZA” [6]. Selama era ini, laboratorium-laboratorium AI terkemuka didirikan di institusi seperti MIT, Carnegie Mellon University, dan Stanford University, yang menjadi pusat inovasi dan melahirkan generasi baru peneliti AI [4, 6]. Kemajuan dalam pemecahan masalah, permainan, dan pemrosesan bahasa ini memperkuat keyakinan bahwa tujuan akhir AI dapat dicapai dengan cepat [3].
Musim Dingin AI Pertama dan Tantangannya
Optimisme yang meluap-luap pada era keemasan awal tidak bertahan selamanya. Pada pertengahan tahun 1970-an hingga awal 1980-an, bidang AI memasuki periode stagnasi yang dikenal sebagai “Musim Dingin AI” (AI Winter) yang pertama [2, 6, 15]. Periode ini ditandai dengan pemotongan dana penelitian yang drastis dan hilangnya minat publik serta ilmiah terhadap AI. Ada beberapa faktor utama yang menyebabkan kemunduran ini [7]. Pertama, para peneliti telah terlalu banyak berjanji dan gagal memenuhinya [2, 13]. Prediksi-prediksi bombastis, seperti mesin dengan kecerdasan setingkat manusia dalam satu dekade, terbukti sangat tidak realistis [6].
Program-program awal yang sukses seperti Logic Theorist dan ELIZA, meskipun mengesankan, sebenarnya hanya bekerja dalam domain yang sangat terbatas atau pada masalah “mainan” (toy problems) [4, 6]. Ketika para peneliti mencoba menerapkan metode yang sama pada masalah dunia nyata yang lebih kompleks dan ambigu, pendekatan mereka segera gagal [14]. Tantangan terbesar adalah “ledakan kombinatorial” (combinatorial explosion) [6]. Banyak masalah AI yang tampaknya sederhana pada skala kecil menjadi tidak mungkin dipecahkan secara komputasi ketika jumlah variabel atau kemungkinan meningkat. Misalnya, program catur bisa menganalisis beberapa langkah ke depan, tetapi jumlah kemungkinan gerakan dalam permainan penuh melampaui kapasitas komputasi mesin pada saat itu [14].
Selain itu, para peneliti meremehkan betapa sulitnya untuk memberikan mesin “pengetahuan umum” (common-sense knowledge)—jutaan fakta implisit tentang dunia yang manusia gunakan setiap saat tanpa berpikir [4, 6]. Kekurangan data yang masif dan kekuatan komputasi yang terbatas juga menjadi penghalang besar [2, 12]. Kritik keras dari luar dan dalam komunitas mulai muncul. Pada tahun 1973, Laporan Lighthill di Inggris Raya menyimpulkan bahwa penelitian AI telah gagal mencapai tujuan ambisiusnya dan merekomendasikan pemotongan dana secara signifikan untuk proyek-proyek AI fundamental [6, 7]. Di Amerika Serikat, DARPA juga menjadi frustrasi dengan kurangnya kemajuan praktis dan mulai mengalihkan pendanaannya ke proyek-proyek yang lebih terarah dengan hasil yang lebih jelas [6]. Akibatnya, aliran dana yang sebelumnya menopang penelitian AI mengering, memaksa banyak proyek berhenti dan para peneliti meninggalkan bidang tersebut [7].
Kebangkitan Melalui Sistem Pakar (Expert Systems) di Tahun 1980-an
Setelah melewati musim dingin yang suram, kecerdasan buatan mengalami kebangkitan pada awal tahun 1980-an, sebagian besar didorong oleh keberhasilan komersial dari sebuah pendekatan baru yang disebut “sistem pakar” (expert systems) [2, 6, 7]. Berbeda dengan tujuan ambisius sebelumnya untuk menciptakan kecerdasan umum, sistem pakar dirancang untuk meniru kemampuan pengambilan keputusan seorang ahli manusia dalam domain yang sangat spesifik dan terbatas [14, 15]. Pendekatan yang lebih pragmatis ini terbukti sangat berguna dan menguntungkan secara komersial [4]. Sistem pakar bekerja dengan mengkodekan pengetahuan seorang ahli ke dalam bentuk serangkaian aturan “jika-maka” (if-then rules) yang disimpan dalam “basis pengetahuan” (knowledge base) [6].
Sebuah “mesin inferensi” (inference engine) kemudian menggunakan aturan-aturan ini untuk memproses informasi tentang suatu masalah dan memberikan kesimpulan atau rekomendasi, mirip dengan cara seorang ahli menganalisis situasi [6, 11]. Salah satu sistem pakar awal yang paling sukses adalah DENDRAL, yang dikembangkan di Stanford pada akhir 1960-an untuk membantu ahli kimia mengidentifikasi molekul organik yang tidak dikenal [6, 14]. Program lain yang berpengaruh adalah MYCIN, yang dirancang untuk mendiagnosis penyakit infeksi darah dan merekomendasikan antibiotik [6]. Namun, sistem pakar yang benar-benar memicu ledakan komersial adalah XCON (juga dikenal sebagai R1), yang dikembangkan untuk Digital Equipment Corporation (DEC) pada tahun 1980 [6, 14].
XCON membantu mengkonfigurasi pesanan sistem komputer VAX yang kompleks, sebuah tugas yang sebelumnya membutuhkan tenaga ahli manusia dan rawan kesalahan. Kesuksesan XCON, yang dilaporkan menghemat DEC hingga jutaan dolar per tahun, membuktikan nilai komersial AI kepada dunia bisnis [4, 6]. Keberhasilan ini memicu gelombang investasi baru. Perusahaan-perusahaan mulai mengembangkan dan menggunakan sistem pakar untuk berbagai tugas, mulai dari perencanaan keuangan hingga penjadwalan manufaktur [7]. Kebangkitan ini juga didorong oleh Proyek Sistem Komputer Generasi Kelima (Fifth Generation Computer Systems) yang diluncurkan oleh Jepang pada tahun 1982, sebuah inisiatif ambisius untuk membangun superkomputer yang dirancang untuk aplikasi AI. Hal ini memicu kekhawatiran di Barat dan mendorong pemerintah AS dan Eropa untuk kembali mendanai penelitian AI secara besar-besaran agar tidak tertinggal [6, 7].
Revolusi Machine Learning dan Era Modern AI
Meskipun sistem pakar berhasil menghidupkan kembali minat pada AI, pendekatan ini memiliki keterbatasan. Proses pengkodean pengetahuan secara manual terbukti sulit, mahal, dan tidak dapat diskalakan [6]. Pada akhir 1980-an dan awal 1990-an, muncul musim dingin AI kedua karena pasar sistem pakar runtuh [6, 7]. Namun, dari abu musim dingin ini, sebuah paradigma baru muncul dan mendominasi era modern AI: machine learning (pembelajaran mesin) [4]. Pergeseran fundamental terjadi dari AI yang berbasis aturan (di mana manusia secara eksplisit memprogram pengetahuan) ke AI yang berbasis data (di mana sistem belajar pola langsung dari data) [4, 7].
Daripada memberi tahu komputer cara mengidentifikasi kucing dengan seperangkat aturan (misalnya, “jika memiliki kumis, telinga runcing, dan ekor”), pendekatan pembelajaran mesin memberinya ribuan gambar berlabel “kucing” dan membiarkannya menemukan pola yang relevan secara mandiri [12]. Beberapa fondasi untuk revolusi ini telah diletakkan sebelumnya, seperti pengembangan algoritma backpropagation pada tahun 1980-an oleh Geoffrey Hinton dan lainnya, yang sangat penting untuk melatih jaringan saraf dalam (deep neural networks) [6, 7]. Namun, potensi penuh dari pendekatan ini baru dapat direalisasikan ketika tiga faktor kunci bertemu di akhir 1990-an dan awal 2000-an: ketersediaan data dalam jumlah besar (Big Data) berkat internet, peningkatan eksponensial dalam kekuatan komputasi (terutama melalui penggunaan Graphics Processing Units atau GPU), dan penyempurnaan lebih lanjut pada algoritma pembelajaran [2, 7, 12, 13].
Momen simbolik yang menandai kebangkitan AI adalah pada tahun 1997, ketika superkomputer Deep Blue dari IBM mengalahkan juara catur dunia Garry Kasparov dalam sebuah pertandingan [2, 12, 14]. Kemenangan ini menunjukkan bahwa mesin dapat mengungguli kecerdasan manusia dalam tugas intelektual yang sangat kompleks, meskipun melalui kekuatan komputasi brute-force daripada pemahaman intuitif [6]. Sejak itu, terutama setelah tahun 2012, bidang deep learning—sebuah sub-bidang dari machine learning yang menggunakan jaringan saraf dengan banyak lapisan—telah menghasilkan terobosan luar biasa di berbagai bidang seperti pengenalan gambar, pemrosesan bahasa alami, dan pengenalan suara, yang mendorong ledakan aplikasi AI yang kita lihat saat ini [7, 15].
Kesimpulan
Sejarah kecerdasan buatan adalah cerminan dari ambisi manusia untuk mereplikasi salah satu kemampuannya yang paling berharga: kecerdasan. Perjalanan ini dimulai dari pertanyaan-pertanyaan filosofis dan fondasi teoretis yang diletakkan oleh para visioner seperti Alan Turing. Kelahiran resminya di Dartmouth Workshop 1956 memicu era keemasan yang penuh optimisme, namun segera diikuti oleh kekecewaan dan “Musim Dingin AI” ketika kompleksitas masalah dunia nyata dan keterbatasan teknologi menjadi jelas.
Kebangkitan melalui sistem pakar pada 1980-an menunjukkan potensi komersial AI dengan fokus pada domain yang lebih sempit, meskipun pendekatan ini juga menemui batasannya. Revolusi sejati datang dengan pergeseran paradigma ke machine learning dan deep learning, yang didorong oleh ledakan data, kekuatan komputasi yang masif, dan algoritma yang lebih canggih. Perjalanan AI yang berliku, dengan siklus optimisme, kegagalan, dan kebangkitan, telah membawa kita ke era saat ini di mana AI bukan lagi fiksi ilmiah, melainkan teknologi fundamental yang menopang berbagai aspek kehidupan modern.
Belum Kenal Ratu AI?
Ratu AI adalah layanan kecerdasan buatan generatif terkemuka di Indonesia yang dirancang untuk menghasilkan teks dan gambar berkualitas tinggi. Dengan memanfaatkan berbagai model AI terbaik global, Ratu AI memberikan solusi inovatif bagi individu, bisnis, atau kreatif yang membutuhkan konten visual maupun tulisan secara cepat dan akurat. Platform ini menggabungkan teknologi canggih dengan antarmuka yang ramah pengguna, memungkinkan siapa pun untuk menghasilkan karya profesional tanpa batasan kreativitas.
Mengapa memilih Ratu AI? Layanan ini tidak hanya menawarkan kecepatan dan presisi, tetapi juga fleksibilitas untuk menyesuaikan hasil sesuai kebutuhan pengguna. Dari desain grafis hingga penulisan konten, Ratu AI menjadi mitra ideal untuk meningkatkan produktivitas dan kualitas proyek Anda. Dengan teknologi yang terus diperbarui, setiap output yang dihasilkan selalu relevan dengan tren dan standar industri terkini.
Ayo mulai sekarang! Jangan lewatkan kesempatan untuk mengubah cara Anda bekerja dengan AI terbaik. Kunjungi halaman Pricing Ratu AI dan temukan paket yang sesuai dengan kebutuhan Anda. Baik untuk penggunaan pribadi, tim, atau bisnis skala besar, kami siap membantu Anda meraih hasil maksimal dengan biaya yang transparan dan terjangkau. Daftar hari ini dan buka potensi tak terbatas kreativitas serta efisiensi bersama Ratu AI!
FAQ
Apa itu Dartmouth Workshop dan mengapa itu penting?
Dartmouth Workshop adalah sebuah proyek penelitian musim panas yang diadakan pada tahun 1956 di Dartmouth College [1]. Acara ini dianggap sebagai momen kelahiran resmi bidang kecerdasan buatan karena di sinilah istilah “Artificial Intelligence” pertama kali dicetuskan oleh John McCarthy, dan para perintis utama bidang ini berkumpul untuk menetapkan visi dan agenda penelitian awal [2, 6, 14].
Apa yang menyebabkan “Musim Dingin AI” (AI Winter)?
“Musim Dingin AI” pertama terjadi pada pertengahan 1970-an hingga awal 1980-an dan disebabkan oleh beberapa faktor [6]. Faktor utamanya adalah kegagalan para peneliti untuk memenuhi janji-janji yang terlalu ambisius, keterbatasan kekuatan komputasi saat itu, kesulitan dalam mengatasi masalah skala besar (“ledakan kombinatorial”), dan tantangan untuk membekali mesin dengan pengetahuan umum [4, 6, 14]. Hal ini menyebabkan pemotongan dana penelitian yang signifikan dari lembaga seperti DARPA dan Laporan Lighthill di Inggris [6, 7].
Apa perbedaan utama antara AI awal dan AI modern?
Perbedaan utamanya terletak pada pendekatan. AI awal (era keemasan dan era sistem pakar) sebagian besar bersifat simbolik dan berbasis aturan, di mana manusia secara eksplisit memprogram pengetahuan dan logika ke dalam mesin [4, 6]. Sebaliknya, AI modern didominasi oleh machine learning dan deep learning, yang merupakan pendekatan berbasis data di mana sistem belajar pola dan membuat prediksi dari data dalam jumlah besar tanpa diprogram secara eksplisit untuk setiap tugas [7, 12].
Siapa yang dianggap sebagai penggagas istilah “Artificial Intelligence”?
Istilah “Artificial Intelligence” (Kecerdasan Buatan) dicetuskan oleh John McCarthy, seorang ilmuwan komputer Amerika [2, 15]. Ia memilih nama ini untuk proposal lokakarya yang ia organisir bersama Marvin Minsky, Nathaniel Rochester, dan Claude Shannon, yang kemudian dikenal sebagai Dartmouth Workshop pada tahun 1956 [1, 6].
Referensi
- The birth of Artificial Intelligence (AI) research | Science and Technology: https://st.llnl.gov/news/look-back/birth-artificial-intelligence-ai-research
- History of AI: Timeline and the Future | Maryville Online: https://online.maryville.edu/blog/history-of-ai/
- History of Artificial Intelligence – Artificial Intelligence (A.I.) – LibGuides at Illinois Central College: https://library.icc.edu/c.php?g=1372140&p=10141462
- Appendix I: A Short History of AI | One Hundred Year Study on Artificial Intelligence (AI100): https://ai100.stanford.edu/2016-report/appendix-i-short-history-ai
- The History of Artificial Intelligence – University of Washington: https://courses.cs.washington.edu/courses/csep590/06au/projects/history-ai.pdf
- History of artificial intelligence – Wikipedia: https://en.wikipedia.org/wiki/History_of_artificial_intelligence
- The brief history of artificial intelligence: the world has changed fast — what might be next? – Our World in Data: https://ourworldindata.org/brief-history-of-ai
- Artificial intelligence – Wikipedia: https://en.wikipedia.org/wiki/Artificial_intelligence
- The History of AI: A Timeline of Artificial Intelligence | Coursera: https://www.coursera.org/articles/history-of-ai
- A Brief History of AI – That’s AI: https://www.thats-ai.org/en-GB/units/a-brief-history-of-ai
- History of AI – GeeksforGeeks: https://www.geeksforgeeks.org/evolution-of-ai/
- The History of Artificial Intelligence | IBM: https://www.ibm.com/think/topics/history-of-artificial-intelligence
- What is the history of artificial intelligence (AI)? | Tableau: https://www.tableau.com/data-insights/ai/history
- History of artificial intelligence | Dates, Advances, Alan Turing, ELIZA, & Facts | Britannica: https://www.britannica.com/science/history-of-artificial-intelligence
- The History of Artificial Intelligence: Complete AI Timeline: https://www.techtarget.com/searchenterpriseai/tip/The-history-of-artificial-intelligence-Complete-AI-timeline
- A Very Short History Of Artificial Intelligence (AI): https://www.forbes.com/sites/gilpress/2016/12/30/a-very-short-history-of-artificial-intelligence-ai/
- The History of AI – Everything You Need to Know — Scottish AI Alliance: https://www.scottishai.com/news/the-history-of-ai
- How Long Has AI Been Around: The History of AI from 1920 to 2024 | Big Human: https://www.bighuman.com/blog/history-of-artificial-intelligence
- What Is Artificial Intelligence (AI)? | IBM: https://www.ibm.com/think/topics/artificial-intelligence
- Artificial intelligence (AI) | Definition, Examples, Types, Applications, Companies, & Facts | Britannica: https://www.britannica.com/technology/artificial-intelligence