cover |
Kemampuan model AI, dirancang untuk pemahaman, penalaran, dan pengkodean multimodal. Melatih dirinya sendiri untuk 'bernalar mengenai masalah yang kompleks' dan menjelaskan proses berpikirnya.
Unggul dalam pemrograman, matematika, dan fisika, tetapi kesulitan dengan tugas-tugas sederhana seperti menghitung huruf dalam kata-kata. Dibangun pada model Flash Gemini 2.0 milik Google, mirip dengan model penalaran o1 milik OpenAI.
AI penalaran ini memerlukan waktu inferensi yang lebih lama dan beberapa detik hingga menit untuk mendapatkan respons, fitur ini tersedia di AI Studio Google untuk pengujian dan umpan balik.
"Meluncurkan Gemini 2.0 Flash Eksperimental ( gemini-2.0-flash-exp), membawa peningkatan signifikan pada kecepatan dan kinerja," ungkap Google di laman pembaruan AI Studio, dikutip Sabtu (21/12/2024).
Digambarkan sebagai "langkah pertama" dalam perjalanan penalaran Google oleh para pemimpin produknya. Google ikut serta dengan pesaing seperti OpenAI, DeepSeek, dan Alibaba dalam mengembangkan model penalaran.
Dengan Gemini 2.0 Flash Thinking Experimental , Google bertaruh pada model penalaran untuk meningkatkan penyelesaian masalah dan akurasi AI.
Google totally won 12 days of Shipmas 🎅
— AshutoshShrivastava (@ai_for_success) December 19, 2024
Google new Gemini 2.0 Flash Thinking, a new experimental model in action.
Congratulations Google 👏pic.twitter.com/YDSUlPKHeJ https://t.co/Nokoj1Taqy
Meski masih dalam tahap awal, peluncuran ini menandakan ambisi Google untuk memimpin perlombaan penalaran AI, karena para pesaing mendorong kemajuan AI serupa di bidang paling berisiko tinggi ini.
"Merilis bagian 'Aplikasi Pemula' baru dengan 3 aplikasi demo yang memamerkan penalaran spasial, pemahaman video, dan kemampuan pemanggilan fungsi Gemini. Memperkenalkan penggunaan alat asli untuk integrasi yang mulus dengan alat seperti Google Search dan eksekusi kode," jelasnya.
Google memberikan alasan merilis fitur ini untuk memungkinkan pengembang membangun aplikasi AI generasi berikutnya dengan Gemini, termasuk yang mendukung waktu nyata, menampilkan keluaran audio, dan menunjukkan kecerdasan tingkat lanjut.
"Alasannya: Memungkinkan pengembang membangun aplikasi AI generasi berikutnya dengan Gemini, termasuk yang mendukung waktu nyata, menampilkan keluaran audio, dan menunjukkan kecerdasan tingkat lanjut," tulis Google.