Startup yang mulai dikenal dari Miami, Subquadratic, baru saja muncul dari status tersembunyi dengan klaim yang mencengangkan: mereka mengklaim telah menciptakan model bahasa besar pertama yang sepenuhnya bebas oleh keterbatasan matematis yang telah mendefinisikan dan membatasi setiap sistem AI utama sejak 2017.
- Masalah skala kuadratik telah membentuk ekonomi seluruh industri AI
- Pemecahan Subquadratic sederhana namun menipu: berhenti melakukan perhitungan yang tidak penting
- Tiga tolok ukur menggambarkan gambaran yang kuat, tetapi yang mereka abaikan mungkin lebih penting
- Narasi komunitas riset AI bervariasi dari ‘terobosan sejati’ hingga ‘AI Theranos’
- Magic.dev membuat klaim yang sangat mirip dua tahun lalu — dan kemudian menghilang
- Tim yang berpengalaman, mantan insinyur Meta, dan $29 juta untuk membuktikan kepada para skeptis
- Uji nyata untuk SubQ bukanlah tolok ukur — tetapi apakah matematikanya bertahan di bawah tinjauan independen
Model pertama mereka, SubQ 1M-Preview, disebut sebagai LLM pertama yang dibangun di atas arsitektur subquadratic yang sepenuhnya – di mana komputasi tumbuh secara linier sejalan dengan panjang konteks. Jika klaim ini valid, ini akan menjadi titik balik nyata dalam cara sistem AI bertumbuh. Dengan 12 juta token, perusahaan menyatakan bahwa arsitekturnya mengurangi komputasi perhatian hampir 1.000 kali dibandingkan dengan model-model lain di garis depan – angka yang, jika terverifikasi secara independen, akan melampaui semua pendekatan efisiensi yang ada saat ini.
Subquadratic juga meluncurkan tiga produk dalam tahap beta pribadi: API yang mengekspos jendela konteks penuh, agen pengkodean command-line bernama SubQ Code, dan alat pencarian bernama SubQ Search. Mereka telah mengumpulkan dana sebesar $29 juta dari investor, termasuk salah satu pendiri Tinder, Justin Mateen, mantan mitra SoftBank Vision Fund, Javier Villamizar, serta investor awal di Anthropic, OpenAI, Stripe, dan Brex. Menurut laporan The New Stack, penggalangan dana ini menilai perusahaan tersebut dengan nilai sebesar $500 juta.
Angka-angka yang diumumkan Subquadratic sangat luar biasa. Reaksi dari komunitas riset AI terbilang beragam — mulai dari rasa ingin tahu yang tulus hingga tuduhan langsung bahwa mereka memasarkan produk yang tidak ada. Untuk memahami mengapa, kita perlu mengerti apa yang diklaim oleh perusahaan ini dan mengapa banyak upaya sebelumnya untuk memecahkan masalah yang sama mengalami kegagalan.
Masalah skala kuadratik telah membentuk ekonomi seluruh industri AI
Setiap model AI berbasis transformer — yang mencakup hampir semua sistem dari OpenAI, Anthropic, Google, dan lainnya — bergantung pada operasi yang disebut “perhatian.” Setiap token dibandingkan dengan setiap token lain, sehingga saat input bertambah, jumlah interaksi — dan komputasi yang dibutuhkan untuk memprosesnya — tumbuh secara kuadratik. Dalam istilah sederhana: jika ukuran input digandakan, biayanya bukan hanya berlipat dua, tetapi berlipat empat.
Hubungan ini telah membentuk apa yang dibangun dan apa yang tidak. Standar industri saat ini adalah 128.000 token untuk banyak model AI dan hingga 1 juta token untuk model cloud tingkat atas seperti Claude Sonnet 4.7 dan Gemini 3.1 Pro.
Meski pada ukuran tersebut, biaya untuk memproses input yang panjang bisa sangat menyakitkan. Industri ini membangun berbagai cara untuk mengatasi masalah ini. Sistem RAG menggunakan mesin pencari untuk menarik sejumlah hasil yang relevan sebelum dikirim ke model, karena mengirimkan seluruh korpus tidak praktis. Para pengembang menggunakan pipeline pengambilan, strategi chunking, teknik rekayasa prompt, dan sistem orkestra multi-agen di atas model-model ini — semua untuk menghindari batasan fundamental bahwa model itu sendiri tidak dapat memproses semua informasi sekaligus dengan efisien.
Argumen Subquadratic adalah bahwa cara-cara tersebut mahal, rapuh, dan pada akhirnya terbatas. Sesuai pernyataan CTO Alexander Whedon kepada SiliconANGLE, “Saya dulunya secara manual mengkurasi prompt dan sistem pengambilan serta logika bersyarat untuk menghubungkan alur kerja. Dan saya rasa itu adalah pemborosan kecerdasan manusia dan juga membatasi kualitas produk.”
Pemecahan Subquadratic sederhana namun menipu: berhenti melakukan perhitungan yang tidak penting
Pendekatan perusahaan ini, yang disebut Subquadratic Sparse Attention atau SSA, dibangun di atas asumsi sederhana: sebagian besar perbandingan token ke token dalam perhatian standar adalah komputasi yang terbuang. Alih-alih membandingkan setiap token dengan yang lain, SSA belajar untuk mengidentifikasi perbandingan mana yang benar-benar penting dan hanya menghitung perhatian berdasarkan posisi tersebut. Yang lebih penting, pemilihan ini bergantung pada konten — model memutuskan di mana harus mencari berdasarkan makna, bukan pada pola posisional yang tetap. Ini memungkinkannya untuk mengambil informasi spesifik dari posisi mana pun dalam konteks yang sangat panjang tanpa membayar “pajak kuadratik.”
Hasil praktisnya tumbuh sejalan dengan panjang konteks — tepatnya kebalikan dari masalah yang coba dipecahkan. Menurut blog teknis perusahaan, SSA mencapai percepatan pengisian 7,2 kali lipat dibandingkan perhatian padat pada 128.000 token, meningkat menjadi 52,2 kali lipat pada 1 juta token. Seperti yang diungkapkan Whedon: “Jika Anda menggandakan ukuran input dengan hukum skala kuadratik, Anda membutuhkan empat kali lipat komputasi; dengan hukum skala linier, Anda hanya membutuhkan dua kali lipat.”
Tiga tolok ukur menggambarkan gambaran yang kuat, tetapi yang mereka abaikan mungkin lebih penting
Dari permukaan, angka tolok ukur SubQ bersaing atau bahkan mengungguli model-model yang dibangun oleh organisasi yang menghabiskan miliaran dolar. Di SWE-Bench Verified, skor SubQ mencapai 81,8% dibandingkan dengan 80,8% milik Opus 4.6 dan 80,0% milik DeepSeek 4.0 Pro. Di RULER pada 128.000 token, yang merupakan tolok ukur standar untuk penalaran atas input yang diperpanjang, SubQ meraih skor 95%, mengungguli Claude Opus 4.6 yang mendapatkan skor 94,8%. Di MRCR v2, tes berat untuk pengambilan multi-hop dari konteks panjang, SubQ mencatat skor terverifikasi pihak ketiga sebesar 65,9%, dibandingkan dengan Claude Opus 4.7 yang mendapat skor 32,2%, GPT-5.5 di 74%, dan Gemini 3.1 Pro di 26,3%.
Tetapi beberapa detail perlu diperhatikan. Pilihan tolok ukur yang digunakan terbatas — hanya tiga tes, yang semuanya menekankan pengambilan konteks panjang dan pengkodean, tugas yang memang dirancang untuk SubQ. Evaluasi yang lebih luas, yang mencakup penalaran umum, matematika, performa multibahasa, dan keamanan belum dipublikasikan. Perusahaan menyatakan bahwa model card yang komprehensif akan “segera hadir.”
Menurut The New Stack, setiap model tolok ukur hanya dijalankan sekali karena biaya inferensi yang tinggi, dan margin SWE-Bench, sebagaimana diakui dalam makalah perusahaan, “memanfaatkan sebanyak mungkin model.” Dalam metodologi tolok ukur, penggunaan satu kali tanpa interval kepercayaan memberikan ruang untuk variasi. Ada juga celah yang signifikan antara hasil penelitian SubQ dan model produksinya. Di MRCR v2, perusahaan melaporkan skor penelitian 83 — tetapi model yang terverifikasi pihak ketiga hanya mencetak 65,9. Jarak 17 poin antara hasil laboratorium dan produk yang dijual itu mencolok dan sebagian besar tidak terjelaskan.
Subquadratic juga memberitahukan SiliconANGLE bahwa di tolok ukur RULER 128K, SubQ mencetak akurasi 95% dengan biaya $8, dibandingkan dengan akurasi 94% dan biaya sekitar $2.600 untuk Claude Opus — sebuah klaim biaya yang luar biasa. Namun, perusahaan belum mengungkapkan struktur harga API secara publik, sehingga sulit untuk memverifikasi perbandingan biaya per tugas secara independen.
Narasi komunitas riset AI bervariasi dari ‘terobosan sejati’ hingga ‘AI Theranos’
Dalam hitungan jam setelah pengumuman, komunitas riset AI terpecah dalam perdebatan yang terfokus pada satu pertanyaan: Apakah ini nyata?
Pengamat AI, Dan McAteer, menangkap suasana biner ini dalam sebuah postingan yang banyak dibagikan: “SubQ adalah terobosan terbesar sejak Transformer… atau ini adalah AI Theranos.” Perbandingan dengan perusahaan penipuan pengujian darah yang terkenal ini mungkin tidak adil, tetapi mencerminkan skala klaim yang diajukan. Para skeptis segera menciptakan tekanan pada beberapa titik. Insinyur AI ternama, Will Depue, awalnya mencatat bahwa SubQ “hampir pasti adalah penyempurnaan perhatian jarang dari Kimi atau DeepSeek,” merujuk pada model open-source yang sudah ada.
Whedon mengkonfirmasi hal ini di X, menyatakan bahwa perusahaan “menggunakan bobot dari model open-source sebagai titik awal, sesuai dengan pendanaan dan kematangan perusahaan kami.” Depue kemudian melanjutkan kritiknya, menekankan bahwa klaim skala O(n) perusahaan dan angka percepatannya “tidak tampak sejalan” dan menyebut komunikasinya “entah sangat buruk dalam penyampaiannya atau tidak nyata.”
Pengembang lain mengemukakan pertanyaan struktural. Seorang pengembang mencatat bahwa jika SubQ benar-benar mengurangi komputasi sebesar 1.000 kali dan biayanya kurang dari 5% Opus, perusahaan harusnya tidak mengalami masalah dalam melayani dengan skala yang besar — jadi mengapa aksesnya dibatasi melalui program akses awal? Pengembang Stepan Goncharov menyebut tolok ukur tersebut sebagai “tolok ukur yang sangat menarik namun terpilih,” sementara komentar lainnya menyebutkan mereka “terlalu sempurna untuk dipercaya.”
Tapi tidak semua orang bersikap skeptis. Peneliti AI John Rysana menanggapi jelas upaya Theranos ini, menekankan bahwa pekerjaan ini hanyalah perhatian subkuadratik yang dilakukan dengan baik dan sangat berarti untuk beban kerja konteks panjang, serta bahwa “peluang untuk ini menjadi BS sangat rendah.” Linus Ekenstam, seorang komentator teknologi, mengatakan bahwa dia “sangat tertarik untuk melihat implikasi dunia nyata”, terutama untuk perangkat lunak yang didukung AI yang kompleks.
Magic.dev membuat klaim yang sangat mirip dua tahun lalu — dan kemudian menghilang
Kritikan paling tajam terhadap peluncuran SubQ datang bukan dari klaim spesifiknya tetapi dari sejarah terbaru. Magic.dev mengumumkan model dengan jendela konteks 100 juta token pada Agustus 2024, dengan klaim keuntungan efisiensi 1.000 kali lipat, dan berhasil mengumpulkan sekitar $500 juta berdasarkan klaim tersebut. Hingga awal 2026, tidak ada bukti publik bahwa LTM-2-mini digunakan di luar Magic.
Paralel ini sangat tidak nyaman. Kedua perusahaan mengklaim memiliki jendela konteks yang sangat besar. Keduanya mengklaim peningkatan efisiensi sekitar 1.000 kali lipat. Keduanya menargetkan rekayasa perangkat lunak sebagai kasus penggunaan utama mereka. Dan kedua perusahaan meluncurkan dengan akses eksternal yang terbatas.
Lanskap riset yang lebih luas memperkuat kewaspadaan ini. Kimi Linear, DeepSeek Sparse Attention, Mamba, dan RWKV semua menjanjikan skala subkuadratik, dan semua menghadapi masalah yang sama: arsitektur yang mencapai kompleksitas linier dalam teori sering kali berkinerja kurang baik dibandingkan perhatian kuadratik pada tolok ukur di garis depan, atau mereka berakhir campuran — mencampurkan lapisan subkuadratik dengan perhatian standar dan kehilangan manfaat skala murni.
Sebuah analisis LessWrong yang banyak dikutip berpendapat bahwa pendekatan ini “sebaiknya dipandang sebagai ‘perbaikan bertahap nomor 93595 pada arsitektur transformer'” karena implementasi praktis tetap kuadratik dan “hanya meningkatkan perhatian dengan faktor konstan.”
Subquadratic menyadari sejarah ini. Blog teknis mereka secara spesifik memperdebatkan setiap pendekatan sebelumnya — perhatian jarang pola tetap, model ruang negara, arsitektur hibrida, dan DeepSeek Sparse Attention — serta mengklaim bahwa SSA menghindari trade-off mereka. Apakah benar demikian masih menjadi pertanyaan empiris yang hanya evaluasi independen yang dapat menjawabnya.
Tim yang berpengalaman, mantan insinyur Meta, dan $29 juta untuk membuktikan kepada para skeptis
Tim di balik klaim ini penting untuk dievaluasi. CEO Justin Dangel adalah pendiri dan CEO yang memiliki pengalaman lima kali dengan catatan dalam teknologi kesehatan, teknologi asuransi, dan barang konsumen. Perusahaan-perusahaannya telah berkembang hingga ratusan karyawan, menarik dukungan institusi, dan mencapai likuiditas. CTO Alexander Whedon sebelumnya bekerja sebagai insinyur perangkat lunak di Meta dan menjabat sebagai Kepala AI Generatif di TribeAI, di mana dia memimpin lebih dari 40 implementasi AI enterprise.
Tim ini termasuk 11 peneliti PhD dengan latar belakang dari Meta, Google, Oxford, Cambridge, ByteDance, dan Adobe. Itu adalah kumpulan talenta yang kredibel untuk upaya riset di tingkat arsitektur. Namun, tidak ada co-founder yang pernah menerbitkan riset AI mendasar, dan perusahaan belum merilis makalah yang ter-review sejawat. Laporan teknisnya terdaftar sebagai “segera hadir.”
Profil pendanaan ini tidak biasa bagi sebuah perusahaan yang membuat klaim AI tingkat atas. Subquadratic mengumpulkan $29 juta dengan penilaian sebesar $500 juta — harga yang tinggi untuk sebuah perusahaan tahap awal yang tanpa model yang tersedia secara publik, tanpa riset ter-review sejawat, dan tanpa pengungkapan pendapatan. Basis investor, yang dipimpin oleh pendiri Tinder, Mateen, dan mantan mitra SoftBank, Villamizar, cenderung terhadap teknologi konsumen dan investasi pertumbuhan, ketimbang penelitian AI yang mendalam. Perusahaan tidak akan mengeluarkan bobotnya secara open-source namun berencana untuk menawarkan alat pelatihan bagi perusahaan untuk melakukan pelatihan setelahnya, dan menargetkan jendela konteks 50 juta token untuk kuartal keempat.
Uji nyata untuk SubQ bukanlah tolok ukur — tetapi apakah matematikanya bertahan di bawah tinjauan independen
Kalau kita singkirkan bahasa pemasaran dan drama media sosial, pertanyaan mendasar yang diajukan Subquadratic sebenarnya penting: Bisakah sistem AI terbebas dari skala kuadratik tanpa mengorbankan kualitas yang membuatnya berguna?
Taruhannya sangat besar. Jika perhatian bisa dibuat benar-benar linier tanpa merusak pengambilan dan penalaran, ekonomi AI akan berubah secara mendasar. Aplikasi enterprise saat ini yang memerlukan pipeline pengambilan yang rumit — memproses seluruh basis kode, kontrak, dokumen regulasi, catatan medis — dapat menjadi operasi satu kali. Miliaran dolar yang saat ini dibelanjakan untuk infrastruktur RAG, manajemen konteks, dan orkestra agenis akan menjadi sebagian besar tidak perlu.
Kesiapan Whedon untuk berinteraksi secara publik dengan kritik teknis — mengeluarkan blog teknis dalam hitungan jam setelah penolakan — menunjukkan tim yang mengerti bahwa mereka perlu menunjukkan pekerjaan mereka, tidak hanya mendeskripsikannya. Dan yang patut dicatat, perusahaan dengan terbuka mengakui bahwa mereka membangun di atas fondasi open-source dan bahwa model mereka lebih kecil daripada yang ada di laboratorium besar.
Setiap model di garis depan pada tahun 2026 mengiklanasikan jendela konteks setidaknya satu juta token, tetapi hampir tidak ada dari mereka yang benar-benar mampu memanfaatkan semua informasi itu dengan baik. Jarak antara jendela konteks nominal dan fungsional — antara apa yang diterima model dan apa yang dapat mereka gunakan secara andal untuk penalaran — tetap menjadi salah satu masalah terpenting yang belum terpecahkan dalam AI. Subquadratic mengklaim telah menutup celah itu. Jika evaluasi independen mengonfirmasi klaim tersebut, implikasinya akan menjangkau jauh melampaui penilaian sebuah startup tunggal. Jika tidak, perusahaan ini akan bergabung dalam daftar panjang janji konteks panjang yang terdengar revolusioner pada hari peluncuran namun terasa biasa enam bulan kemudian.
Dalam dunia komputasi, setiap kendala dasar pada akhirnya akan runtuh. Ketika itu terjadi, terobosan tidak pernah datang dari arah yang diharapkan industri. Pertanyaan yang menggelayuti Subquadratic adalah apakah sebuah tim yang terdiri dari 11 PhD dan putaran pendanaan $29 juta benar-benar menemukan jawaban yang telah menghindari organisasi yang menghabiskan ribuan kali lebih banyak — atau apakah mereka hanya menemukan cara yang lebih baik untuk mendeskripsikan masalah tersebut.

