Finware
  • Beranda
  • Riwayat
  • Disimpan
  • Feed
  • Topik Pilihan
  • News
  • Market
  • Bisnis
  • Kripto
  • Tech
Pemberitahuan
FinwareFinware
  • News
  • Market
  • Bisnis
  • Kripto
  • Tech
Search
  • Quick Access
    • Beranda
    • Contact Us
    • Riwayat
    • Disimpan
    • Topik Pilihan
    • Feed
  • Categories
    • News
    • Market
    • Bisnis
    • Kripto
    • Tech

Artikel Populer

Jangan lewatkan artikel menarik lainnya
Indonesia Terancam Tertinggal dalam Euforia EV, Sebagian Besar Nikel Dialihkan ke Baja Tahan Karat, Temuan Riset Mengungkap

Indonesia Terancam Tertinggal dalam Euforia EV, Sebagian Besar Nikel Dialihkan ke Baja Tahan Karat, Temuan Riset Mengungkap

Reihan
19 April 2026
Aksi Saham Terbesar Siang Ini: META, BBY, APP, SMG Siap Mengguncang Pasar!

Aksi Saham Terbesar Siang Ini: META, BBY, APP, SMG Siap Mengguncang Pasar!

Dirga
27 Maret 2026
Warren Buffett Akui Terlambat Jual Saham Apple: Siap Tambah, Tapi Tunggu Pasar Lebih Baik!

Warren Buffett Akui Terlambat Jual Saham Apple: Siap Tambah, Tapi Tunggu Pasar Lebih Baik!

Dirga
31 Maret 2026
© 2026 Finware Media. All Right Reserved.
Finware > Bisnis > Startup Miami Subquadratic Klaim Efisiensi AI Mencapai 1.000x dengan Model SubQ; Peneliti Serukan Bukti Independen.
Bisnis

Startup Miami Subquadratic Klaim Efisiensi AI Mencapai 1.000x dengan Model SubQ; Peneliti Serukan Bukti Independen.

Keenan
Terakhir diperbarui: 6 Mei 2026 12:46 PM
Oleh
Keenan
16 Menit Baca
Bagikan
Startup Miami Subquadratic Klaim Efisiensi AI Mencapai 1.000x dengan Model SubQ; Peneliti Serukan Bukti Independen.
Bagikan

Startup yang mulai dikenal dari Miami, Subquadratic, baru saja muncul dari status tersembunyi dengan klaim yang mencengangkan: mereka mengklaim telah menciptakan model bahasa besar pertama yang sepenuhnya bebas oleh keterbatasan matematis yang telah mendefinisikan dan membatasi setiap sistem AI utama sejak 2017.

Table of Content
  • Masalah skala kuadratik telah membentuk ekonomi seluruh industri AI
  • Pemecahan Subquadratic sederhana namun menipu: berhenti melakukan perhitungan yang tidak penting
  • Tiga tolok ukur menggambarkan gambaran yang kuat, tetapi yang mereka abaikan mungkin lebih penting
  • Narasi komunitas riset AI bervariasi dari ‘terobosan sejati’ hingga ‘AI Theranos’
  • Magic.dev membuat klaim yang sangat mirip dua tahun lalu — dan kemudian menghilang
  • Tim yang berpengalaman, mantan insinyur Meta, dan $29 juta untuk membuktikan kepada para skeptis
  • Uji nyata untuk SubQ bukanlah tolok ukur — tetapi apakah matematikanya bertahan di bawah tinjauan independen

Model pertama mereka, SubQ 1M-Preview, disebut sebagai LLM pertama yang dibangun di atas arsitektur subquadratic yang sepenuhnya – di mana komputasi tumbuh secara linier sejalan dengan panjang konteks. Jika klaim ini valid, ini akan menjadi titik balik nyata dalam cara sistem AI bertumbuh. Dengan 12 juta token, perusahaan menyatakan bahwa arsitekturnya mengurangi komputasi perhatian hampir 1.000 kali dibandingkan dengan model-model lain di garis depan – angka yang, jika terverifikasi secara independen, akan melampaui semua pendekatan efisiensi yang ada saat ini.

Subquadratic juga meluncurkan tiga produk dalam tahap beta pribadi: API yang mengekspos jendela konteks penuh, agen pengkodean command-line bernama SubQ Code, dan alat pencarian bernama SubQ Search. Mereka telah mengumpulkan dana sebesar $29 juta dari investor, termasuk salah satu pendiri Tinder, Justin Mateen, mantan mitra SoftBank Vision Fund, Javier Villamizar, serta investor awal di Anthropic, OpenAI, Stripe, dan Brex. Menurut laporan The New Stack, penggalangan dana ini menilai perusahaan tersebut dengan nilai sebesar $500 juta.

Angka-angka yang diumumkan Subquadratic sangat luar biasa. Reaksi dari komunitas riset AI terbilang beragam — mulai dari rasa ingin tahu yang tulus hingga tuduhan langsung bahwa mereka memasarkan produk yang tidak ada. Untuk memahami mengapa, kita perlu mengerti apa yang diklaim oleh perusahaan ini dan mengapa banyak upaya sebelumnya untuk memecahkan masalah yang sama mengalami kegagalan.

Masalah skala kuadratik telah membentuk ekonomi seluruh industri AI

Setiap model AI berbasis transformer — yang mencakup hampir semua sistem dari OpenAI, Anthropic, Google, dan lainnya — bergantung pada operasi yang disebut “perhatian.” Setiap token dibandingkan dengan setiap token lain, sehingga saat input bertambah, jumlah interaksi — dan komputasi yang dibutuhkan untuk memprosesnya — tumbuh secara kuadratik. Dalam istilah sederhana: jika ukuran input digandakan, biayanya bukan hanya berlipat dua, tetapi berlipat empat.

Hubungan ini telah membentuk apa yang dibangun dan apa yang tidak. Standar industri saat ini adalah 128.000 token untuk banyak model AI dan hingga 1 juta token untuk model cloud tingkat atas seperti Claude Sonnet 4.7 dan Gemini 3.1 Pro.

Meski pada ukuran tersebut, biaya untuk memproses input yang panjang bisa sangat menyakitkan. Industri ini membangun berbagai cara untuk mengatasi masalah ini. Sistem RAG menggunakan mesin pencari untuk menarik sejumlah hasil yang relevan sebelum dikirim ke model, karena mengirimkan seluruh korpus tidak praktis. Para pengembang menggunakan pipeline pengambilan, strategi chunking, teknik rekayasa prompt, dan sistem orkestra multi-agen di atas model-model ini — semua untuk menghindari batasan fundamental bahwa model itu sendiri tidak dapat memproses semua informasi sekaligus dengan efisien.

Argumen Subquadratic adalah bahwa cara-cara tersebut mahal, rapuh, dan pada akhirnya terbatas. Sesuai pernyataan CTO Alexander Whedon kepada SiliconANGLE, “Saya dulunya secara manual mengkurasi prompt dan sistem pengambilan serta logika bersyarat untuk menghubungkan alur kerja. Dan saya rasa itu adalah pemborosan kecerdasan manusia dan juga membatasi kualitas produk.”

Read more  Redwood Materials Pangkas 10% Tenaga Kerja dalam Restrukturisasi untuk Fokus pada Bisnis Penyimpanan Energi

Pemecahan Subquadratic sederhana namun menipu: berhenti melakukan perhitungan yang tidak penting

Pendekatan perusahaan ini, yang disebut Subquadratic Sparse Attention atau SSA, dibangun di atas asumsi sederhana: sebagian besar perbandingan token ke token dalam perhatian standar adalah komputasi yang terbuang. Alih-alih membandingkan setiap token dengan yang lain, SSA belajar untuk mengidentifikasi perbandingan mana yang benar-benar penting dan hanya menghitung perhatian berdasarkan posisi tersebut. Yang lebih penting, pemilihan ini bergantung pada konten — model memutuskan di mana harus mencari berdasarkan makna, bukan pada pola posisional yang tetap. Ini memungkinkannya untuk mengambil informasi spesifik dari posisi mana pun dalam konteks yang sangat panjang tanpa membayar “pajak kuadratik.”

Hasil praktisnya tumbuh sejalan dengan panjang konteks — tepatnya kebalikan dari masalah yang coba dipecahkan. Menurut blog teknis perusahaan, SSA mencapai percepatan pengisian 7,2 kali lipat dibandingkan perhatian padat pada 128.000 token, meningkat menjadi 52,2 kali lipat pada 1 juta token. Seperti yang diungkapkan Whedon: “Jika Anda menggandakan ukuran input dengan hukum skala kuadratik, Anda membutuhkan empat kali lipat komputasi; dengan hukum skala linier, Anda hanya membutuhkan dua kali lipat.”

Tiga tolok ukur menggambarkan gambaran yang kuat, tetapi yang mereka abaikan mungkin lebih penting

Dari permukaan, angka tolok ukur SubQ bersaing atau bahkan mengungguli model-model yang dibangun oleh organisasi yang menghabiskan miliaran dolar. Di SWE-Bench Verified, skor SubQ mencapai 81,8% dibandingkan dengan 80,8% milik Opus 4.6 dan 80,0% milik DeepSeek 4.0 Pro. Di RULER pada 128.000 token, yang merupakan tolok ukur standar untuk penalaran atas input yang diperpanjang, SubQ meraih skor 95%, mengungguli Claude Opus 4.6 yang mendapatkan skor 94,8%. Di MRCR v2, tes berat untuk pengambilan multi-hop dari konteks panjang, SubQ mencatat skor terverifikasi pihak ketiga sebesar 65,9%, dibandingkan dengan Claude Opus 4.7 yang mendapat skor 32,2%, GPT-5.5 di 74%, dan Gemini 3.1 Pro di 26,3%.

Tetapi beberapa detail perlu diperhatikan. Pilihan tolok ukur yang digunakan terbatas — hanya tiga tes, yang semuanya menekankan pengambilan konteks panjang dan pengkodean, tugas yang memang dirancang untuk SubQ. Evaluasi yang lebih luas, yang mencakup penalaran umum, matematika, performa multibahasa, dan keamanan belum dipublikasikan. Perusahaan menyatakan bahwa model card yang komprehensif akan “segera hadir.”

Menurut The New Stack, setiap model tolok ukur hanya dijalankan sekali karena biaya inferensi yang tinggi, dan margin SWE-Bench, sebagaimana diakui dalam makalah perusahaan, “memanfaatkan sebanyak mungkin model.” Dalam metodologi tolok ukur, penggunaan satu kali tanpa interval kepercayaan memberikan ruang untuk variasi. Ada juga celah yang signifikan antara hasil penelitian SubQ dan model produksinya. Di MRCR v2, perusahaan melaporkan skor penelitian 83 — tetapi model yang terverifikasi pihak ketiga hanya mencetak 65,9. Jarak 17 poin antara hasil laboratorium dan produk yang dijual itu mencolok dan sebagian besar tidak terjelaskan.

Subquadratic juga memberitahukan SiliconANGLE bahwa di tolok ukur RULER 128K, SubQ mencetak akurasi 95% dengan biaya $8, dibandingkan dengan akurasi 94% dan biaya sekitar $2.600 untuk Claude Opus — sebuah klaim biaya yang luar biasa. Namun, perusahaan belum mengungkapkan struktur harga API secara publik, sehingga sulit untuk memverifikasi perbandingan biaya per tugas secara independen.

Narasi komunitas riset AI bervariasi dari ‘terobosan sejati’ hingga ‘AI Theranos’

Dalam hitungan jam setelah pengumuman, komunitas riset AI terpecah dalam perdebatan yang terfokus pada satu pertanyaan: Apakah ini nyata?

Pengamat AI, Dan McAteer, menangkap suasana biner ini dalam sebuah postingan yang banyak dibagikan: “SubQ adalah terobosan terbesar sejak Transformer… atau ini adalah AI Theranos.” Perbandingan dengan perusahaan penipuan pengujian darah yang terkenal ini mungkin tidak adil, tetapi mencerminkan skala klaim yang diajukan. Para skeptis segera menciptakan tekanan pada beberapa titik. Insinyur AI ternama, Will Depue, awalnya mencatat bahwa SubQ “hampir pasti adalah penyempurnaan perhatian jarang dari Kimi atau DeepSeek,” merujuk pada model open-source yang sudah ada.

Read more  Startup AI Rocket Tawarkan Laporan Bergaya McKinsey dengan Biaya Terjangkau!

Whedon mengkonfirmasi hal ini di X, menyatakan bahwa perusahaan “menggunakan bobot dari model open-source sebagai titik awal, sesuai dengan pendanaan dan kematangan perusahaan kami.” Depue kemudian melanjutkan kritiknya, menekankan bahwa klaim skala O(n) perusahaan dan angka percepatannya “tidak tampak sejalan” dan menyebut komunikasinya “entah sangat buruk dalam penyampaiannya atau tidak nyata.”

Pengembang lain mengemukakan pertanyaan struktural. Seorang pengembang mencatat bahwa jika SubQ benar-benar mengurangi komputasi sebesar 1.000 kali dan biayanya kurang dari 5% Opus, perusahaan harusnya tidak mengalami masalah dalam melayani dengan skala yang besar — jadi mengapa aksesnya dibatasi melalui program akses awal? Pengembang Stepan Goncharov menyebut tolok ukur tersebut sebagai “tolok ukur yang sangat menarik namun terpilih,” sementara komentar lainnya menyebutkan mereka “terlalu sempurna untuk dipercaya.”

Tapi tidak semua orang bersikap skeptis. Peneliti AI John Rysana menanggapi jelas upaya Theranos ini, menekankan bahwa pekerjaan ini hanyalah perhatian subkuadratik yang dilakukan dengan baik dan sangat berarti untuk beban kerja konteks panjang, serta bahwa “peluang untuk ini menjadi BS sangat rendah.” Linus Ekenstam, seorang komentator teknologi, mengatakan bahwa dia “sangat tertarik untuk melihat implikasi dunia nyata”, terutama untuk perangkat lunak yang didukung AI yang kompleks.

Magic.dev membuat klaim yang sangat mirip dua tahun lalu — dan kemudian menghilang

Kritikan paling tajam terhadap peluncuran SubQ datang bukan dari klaim spesifiknya tetapi dari sejarah terbaru. Magic.dev mengumumkan model dengan jendela konteks 100 juta token pada Agustus 2024, dengan klaim keuntungan efisiensi 1.000 kali lipat, dan berhasil mengumpulkan sekitar $500 juta berdasarkan klaim tersebut. Hingga awal 2026, tidak ada bukti publik bahwa LTM-2-mini digunakan di luar Magic.

Paralel ini sangat tidak nyaman. Kedua perusahaan mengklaim memiliki jendela konteks yang sangat besar. Keduanya mengklaim peningkatan efisiensi sekitar 1.000 kali lipat. Keduanya menargetkan rekayasa perangkat lunak sebagai kasus penggunaan utama mereka. Dan kedua perusahaan meluncurkan dengan akses eksternal yang terbatas.

Lanskap riset yang lebih luas memperkuat kewaspadaan ini. Kimi Linear, DeepSeek Sparse Attention, Mamba, dan RWKV semua menjanjikan skala subkuadratik, dan semua menghadapi masalah yang sama: arsitektur yang mencapai kompleksitas linier dalam teori sering kali berkinerja kurang baik dibandingkan perhatian kuadratik pada tolok ukur di garis depan, atau mereka berakhir campuran — mencampurkan lapisan subkuadratik dengan perhatian standar dan kehilangan manfaat skala murni.

Sebuah analisis LessWrong yang banyak dikutip berpendapat bahwa pendekatan ini “sebaiknya dipandang sebagai ‘perbaikan bertahap nomor 93595 pada arsitektur transformer'” karena implementasi praktis tetap kuadratik dan “hanya meningkatkan perhatian dengan faktor konstan.”

Subquadratic menyadari sejarah ini. Blog teknis mereka secara spesifik memperdebatkan setiap pendekatan sebelumnya — perhatian jarang pola tetap, model ruang negara, arsitektur hibrida, dan DeepSeek Sparse Attention — serta mengklaim bahwa SSA menghindari trade-off mereka. Apakah benar demikian masih menjadi pertanyaan empiris yang hanya evaluasi independen yang dapat menjawabnya.

Tim yang berpengalaman, mantan insinyur Meta, dan $29 juta untuk membuktikan kepada para skeptis

Tim di balik klaim ini penting untuk dievaluasi. CEO Justin Dangel adalah pendiri dan CEO yang memiliki pengalaman lima kali dengan catatan dalam teknologi kesehatan, teknologi asuransi, dan barang konsumen. Perusahaan-perusahaannya telah berkembang hingga ratusan karyawan, menarik dukungan institusi, dan mencapai likuiditas. CTO Alexander Whedon sebelumnya bekerja sebagai insinyur perangkat lunak di Meta dan menjabat sebagai Kepala AI Generatif di TribeAI, di mana dia memimpin lebih dari 40 implementasi AI enterprise.

Read more  Winklevoss Capital Kirimkan $43 Juta dalam Bitcoin ke Gemini Custody

Tim ini termasuk 11 peneliti PhD dengan latar belakang dari Meta, Google, Oxford, Cambridge, ByteDance, dan Adobe. Itu adalah kumpulan talenta yang kredibel untuk upaya riset di tingkat arsitektur. Namun, tidak ada co-founder yang pernah menerbitkan riset AI mendasar, dan perusahaan belum merilis makalah yang ter-review sejawat. Laporan teknisnya terdaftar sebagai “segera hadir.”

Profil pendanaan ini tidak biasa bagi sebuah perusahaan yang membuat klaim AI tingkat atas. Subquadratic mengumpulkan $29 juta dengan penilaian sebesar $500 juta — harga yang tinggi untuk sebuah perusahaan tahap awal yang tanpa model yang tersedia secara publik, tanpa riset ter-review sejawat, dan tanpa pengungkapan pendapatan. Basis investor, yang dipimpin oleh pendiri Tinder, Mateen, dan mantan mitra SoftBank, Villamizar, cenderung terhadap teknologi konsumen dan investasi pertumbuhan, ketimbang penelitian AI yang mendalam. Perusahaan tidak akan mengeluarkan bobotnya secara open-source namun berencana untuk menawarkan alat pelatihan bagi perusahaan untuk melakukan pelatihan setelahnya, dan menargetkan jendela konteks 50 juta token untuk kuartal keempat.

Uji nyata untuk SubQ bukanlah tolok ukur — tetapi apakah matematikanya bertahan di bawah tinjauan independen

Kalau kita singkirkan bahasa pemasaran dan drama media sosial, pertanyaan mendasar yang diajukan Subquadratic sebenarnya penting: Bisakah sistem AI terbebas dari skala kuadratik tanpa mengorbankan kualitas yang membuatnya berguna?

Taruhannya sangat besar. Jika perhatian bisa dibuat benar-benar linier tanpa merusak pengambilan dan penalaran, ekonomi AI akan berubah secara mendasar. Aplikasi enterprise saat ini yang memerlukan pipeline pengambilan yang rumit — memproses seluruh basis kode, kontrak, dokumen regulasi, catatan medis — dapat menjadi operasi satu kali. Miliaran dolar yang saat ini dibelanjakan untuk infrastruktur RAG, manajemen konteks, dan orkestra agenis akan menjadi sebagian besar tidak perlu.

Kesiapan Whedon untuk berinteraksi secara publik dengan kritik teknis — mengeluarkan blog teknis dalam hitungan jam setelah penolakan — menunjukkan tim yang mengerti bahwa mereka perlu menunjukkan pekerjaan mereka, tidak hanya mendeskripsikannya. Dan yang patut dicatat, perusahaan dengan terbuka mengakui bahwa mereka membangun di atas fondasi open-source dan bahwa model mereka lebih kecil daripada yang ada di laboratorium besar.

Setiap model di garis depan pada tahun 2026 mengiklanasikan jendela konteks setidaknya satu juta token, tetapi hampir tidak ada dari mereka yang benar-benar mampu memanfaatkan semua informasi itu dengan baik. Jarak antara jendela konteks nominal dan fungsional — antara apa yang diterima model dan apa yang dapat mereka gunakan secara andal untuk penalaran — tetap menjadi salah satu masalah terpenting yang belum terpecahkan dalam AI. Subquadratic mengklaim telah menutup celah itu. Jika evaluasi independen mengonfirmasi klaim tersebut, implikasinya akan menjangkau jauh melampaui penilaian sebuah startup tunggal. Jika tidak, perusahaan ini akan bergabung dalam daftar panjang janji konteks panjang yang terdengar revolusioner pada hari peluncuran namun terasa biasa enam bulan kemudian.

Dalam dunia komputasi, setiap kendala dasar pada akhirnya akan runtuh. Ketika itu terjadi, terobosan tidak pernah datang dari arah yang diharapkan industri. Pertanyaan yang menggelayuti Subquadratic adalah apakah sebuah tim yang terdiri dari 11 PhD dan putaran pendanaan $29 juta benar-benar menemukan jawaban yang telah menghindari organisasi yang menghabiskan ribuan kali lebih banyak — atau apakah mereka hanya menemukan cara yang lebih baik untuk mendeskripsikan masalah tersebut.

DITANDAI:breakingfeatured
Bagikan Artikel Ini
Facebook Whatsapp Whatsapp LinkedIn Telegram Threads Salin Tautan
Avatar photo
OlehKeenan
Artikel eksklusif dari Keenan Prawira seputar tren bisnis terbaru, pendanaan startup, dan aksi korporasi. Insight esensial untuk para pemimpin bisnis modern.
Artikel Sebelumnya NYT Strands: Teka-Teki Menarik yang Harus Anda Pecahkan Rabu, 6 Mei (Permainan #794) NYT Strands: Teka-Teki Menarik yang Harus Anda Pecahkan Rabu, 6 Mei (Permainan #794)
Artikel Berikutnya Inflasi Thailand Mencetak Rekor Tertinggi dalam 3 Tahun di Angka 2,89% di Bulan April Inflasi Thailand Mencetak Rekor Tertinggi dalam 3 Tahun di Angka 2,89% di Bulan April
- Advertisement -
Ad image

Don't Miss

Jawaban dan Petunjuk Quordle untuk Minggu, 19 April (Game #1546)
Quordle: Petunjuk dan Jawaban untuk Rabu, 22 April (Permainan #1549)
Tech
Pertanyaan Kunci untuk Menilai Apakah Strategi AI Anda Menghasilkan Nilai atau Justru Risiko
Pertanyaan Kunci untuk Menilai Apakah Strategi AI Anda Menghasilkan Nilai atau Justru Risiko
Bisnis
Trump Tegaskan Kesehatannya Setelah Insiden Mematikan di Acara Wartawan Gedung Putih
Trump Tegaskan Kesehatannya Setelah Insiden Mematikan di Acara Wartawan Gedung Putih
Market
- Advertisement -
Ad image

Baca Juga

Jelajahi insight lain yang sejalan dengan artikel ini!
'Serangan Phishing Kini Didominasi AI: Simak Cara Melindungi Diri Anda!'
Tech

‘Serangan Phishing Kini Didominasi AI: Simak Cara Melindungi Diri Anda!’

Keenan
4 Mei 2026
Saya Memperbolehkan ChatGPT dan Gemini Merakit PC Saya — Inilah Komponen yang Dipilih Masing-Masing AI
Tech

Saya Memperbolehkan ChatGPT dan Gemini Merakit PC Saya — Inilah Komponen yang Dipilih Masing-Masing AI

Keenan
20 April 2026
Dokter Ciptakan Bisnis $100 Juta Se Tahun untuk Mengatasi Masalah Kesehatan
Bisnis

Dokter Ciptakan Bisnis $100 Juta Se Tahun untuk Mengatasi Masalah Kesehatan

Keenan
5 Mei 2026
Jadikan Kesejahteraan Karyawan Strategi Utama, Bukan Hanya Bonus!
Bisnis

Jadikan Kesejahteraan Karyawan Strategi Utama, Bukan Hanya Bonus!

Keenan
4 Mei 2026
Mengapa Setiap Penurunan Makro Bitcoin Selalu Mengarah ke Fase Penyesuaian?
Kripto

Mengapa Setiap Penurunan Makro Bitcoin Selalu Mengarah ke Fase Penyesuaian?

Rangga
15 April 2026
Indonesia Umumkan Perusahaan dengan Konsentrasi Kepemilikan Tinggi Pasca Dorongan Transparansi MSCI
Market

Indonesia Umumkan Perusahaan dengan Konsentrasi Kepemilikan Tinggi Pasca Dorongan Transparansi MSCI

Reihan
5 April 2026
Di Tengah Penjualan Obligasi Pasar Berkembang, Trader Melirik Kesempatan Menarik di ASEAN
Market

Di Tengah Penjualan Obligasi Pasar Berkembang, Trader Melirik Kesempatan Menarik di ASEAN

Reihan
3 April 2026
Ancaman AI Hantui Saham Perangkat Lunak Pasca Pembaruan Terbaru dari Anthropic
News

Ancaman AI Hantui Saham Perangkat Lunak Pasca Pembaruan Terbaru dari Anthropic

Dirga
10 April 2026
Tampilkan Lebih Banyak
- Advertisement -
Ad image
- Advertisement -
Ad image
Finware

Baca berita keuangan global real-time, insight market APAC, tren bisnis, dan crypto paling komprehensif. Curi start sebelum market bergerak.

  • Kanal:
  • Bisnis
  • Market
  • Kripto
  • Tech

Personal

  • Riwayat
  • Disimpan
  • Feed
  • Topik Pilihan

Tentang Kami

  • Beranda
  • Hubungi Kami

© 2026 Finware Media. All Right Reserved.

Welcome Back!

Sign in to your account

Nama Pengguna atau Alamat Email
Kata Sandi

Lupa kata sandi Anda?