Open Coding Agents, Terobosan Agen AI untuk Developer Modern


Ilustrasi Open Coding Agents

Ilustrasi Open Coding Agents

Perkembangan kecerdasan buatan dalam dunia pemrograman mengalami lonjakan besar dalam satu tahun terakhir. Agen coding kini tidak lagi sekadar membantu menulis kode, tetapi juga mampu melakukan debugging, refactoring, hingga mengirim pull request secara otomatis. Teknologi ini mengubah cara developer bekerja, membuat proses pengembangan perangkat lunak menjadi jauh lebih cepat dan efisien.

Namun, di balik kemajuan tersebut, masih terdapat kendala besar. Sebagian besar agen coding modern bersifat tertutup, mahal untuk dilatih, dan sulit digunakan pada kode privat atau sistem internal perusahaan. Inilah celah yang kemudian dijawab oleh Ai2 Open Coding Agents, sebuah pendekatan baru yang menghadirkan agen coding terbuka, efisien, dan dapat disesuaikan oleh siapa pun.
 

Ai2 Open Coding Agents: Solusi Terbuka untuk Semua Repositori

Ai2 Open Coding Agents hadir bukan sekadar sebagai model AI, melainkan sebagai ekosistem lengkap. Platform ini memperkenalkan metode pelatihan baru yang memungkinkan pengembang membangun agen coding sendiri untuk berbagai kebutuhan—baik proyek open-source, repositori pribadi, maupun sistem internal perusahaan.

Dengan pendekatan ini, agen coding dapat digunakan untuk:

  • Generasi kode otomatis
  • Review kode
  • Debugging
  • Pemeliharaan sistem
  • Penjelasan kode secara kontekstual

Masalah utama yang selama ini dihadapi adalah ketidakmampuan model tertutup memahami struktur internal seperti API khusus, pipeline data, atau standar coding perusahaan. Melatih model dengan data privat pun biasanya mahal dan kompleks. Namun, metode baru dari Ai2 berhasil memangkas kendala tersebut secara drastis.
Menariknya, performa setara model open-source terbaik kini bisa dicapai hanya dengan biaya komputasi sekitar $400, bahkan untuk level industri hanya sekitar $12.000. Angka ini membuat teknologi agen coding kini dapat dijangkau oleh tim kecil hingga peneliti independen.


SERA: Model Pertama dari Open Coding Agents

Rilis perdana dari keluarga Open Coding Agents adalah SERA (Soft-verified Efficient Repository Agents). Model andalannya, SERA-32B, mencatatkan pencapaian luar biasa dengan menyelesaikan 54,2% soal SWE-Bench Verified, melampaui model open-source lain di kelasnya.

Yang lebih mengesankan, proses pelatihannya hanya membutuhkan:

  • 40 GPU-day
  • 2 GPU NVIDIA Hopper atau RTX PRO 6000 Blackwell

SERA juga dirancang agar:

  • Langsung kompatibel dengan Claude Code
  • Mudah di-fine-tune untuk kode internal
  • Hemat biaya dan cepat diadaptasi

Dalam pengujian performa, SERA mampu mencapai:

  • 1.950 token/detik (BF16, 4× H100)
  • 3.700 token/detik (FP8)
  • 8.600 token/detik di sistem Blackwell terbaru

Semua ini tersedia dalam bentuk open-source dan dapat dijalankan hanya dengan satu perintah.

Lebih Kecil, Tapi Lebih Unggul

Salah satu temuan paling menarik adalah kemampuan SERA mengalahkan model yang jauh lebih besar. Dalam pengujian pada codebase seperti Django dan SymPy:

  • SERA-32B mengungguli model 110B (GLM-4.5-Air)
  • Hanya menggunakan 8.000 sampel data
  • Biaya pelatihan sekitar $1.300

Hal ini membuktikan bahwa model kecil yang dilatih dengan strategi tepat bisa jauh lebih efektif dibanding model besar yang tidak memahami konteks spesifik.

 

Inovasi Kunci di Balik Efisiensi SERA

  1. Soft-Verified Generation (SVG)
    Tidak semua data harus sempurna. SERA memanfaatkan koreksi parsial dan patch tidak sempurna sebagai data pelatihan yang valid. Pendekatan ini memangkas biaya dan kompleksitas tanpa menurunkan kualitas hasil.
  2. Bug-Type Menu
    Alih-alih menunggu bug nyata, sistem menggunakan 51 pola bug umum. Setiap fungsi dapat menghasilkan berbagai variasi kesalahan, membuat data lebih kaya dan mudah diskalakan.
  3. Simulasi Alur Kerja Developer
    SERA tidak hanya belajar menulis kode, tetapi juga meniru cara berpikir developer saat menyelesaikan masalah. Inilah yang membuatnya lebih “agentic” dan relevan dalam penggunaan nyata.

 

Performa Terkini dengan Perangkat Keras yang Mudah Diakses

Salah satu kekuatan utama dari pendekatan SERA terletak pada efisiensi pemanfaatan perangkat keras. Dalam pengembangannya, tim berhasil membangun serangkaian model berukuran 8B hingga 32B parameter berbasis Qwen3, yang dilatih dengan konteks panjang hingga 32K token. Proses ini dilakukan menggunakan berbagai model teacher untuk meningkatkan kualitas hasil tanpa menambah kompleksitas secara berlebihan.

Pendekatan ini menunjukkan bahwa performa tinggi tidak harus bergantung pada infrastruktur mahal. Justru sebaliknya, pipeline yang digunakan cukup ringan sehingga dapat dijalankan oleh peneliti independen maupun tim kecil. Hal ini membuka peluang luas bagi eksperimen, pengembangan, dan inovasi tanpa hambatan biaya besar.

Lebih jauh lagi, pendekatan ini bersifat fleksibel dan terus dapat ditingkatkan. Seiring berkembangnya model dasar dan kemampuan konteks yang lebih panjang, performa SERA diproyeksikan akan semakin optimal. Namun yang paling penting, sejak tahap awal pun sistem ini sudah cukup matang untuk digunakan secara nyata.

 

Metodologi Efisien yang Mempercepat Inovasi

Salah satu keunggulan utama SERA adalah kemampuannya menciptakan eksperimen yang presisi dan terkontrol. Dengan biaya pelatihan yang rendah, peneliti dapat mengisolasi berbagai variabel yang sebelumnya sulit dianalisis, seperti pengaruh data, panjang konteks, hingga peran model guru.

Pendekatan ini memungkinkan perbandingan antar agen dilakukan secara adil dan ilmiah. Dari sinilah lahir evolusi metode pelatihan, mulai dari soft-verified generation hingga pendekatan penuh SERA yang digunakan saat ini. Proses iterasi menjadi jauh lebih cepat, akurat, dan dapat direproduksi.

 

Performa Kompetitif di Kelasnya

Dalam pengujiannya, SERA menunjukkan performa yang sangat kompetitif dibanding agen coding open-source terbaik saat ini.

Pada konteks 32K:

  • SERA-32B mencapai 49,5% ± 1,9% di SWE-Bench Verified
  • Setara dengan Devstral Small 2 (50,0%)
  • Hampir sama dengan GLM-4.5-Air (50,5%)

Pada konteks 64K:

  • SERA-32B mencapai 54,2% ± 1,4%, sejajar dengan model konteks panjang terbaik

Yang menarik, SERA hanya menggunakan supervised fine-tuning (SFT) dan tidak dilatih pada konteks lebih dari 32K. Artinya, dalam pengujian 64K, SERA justru berada dalam posisi kurang menguntungkan, namun tetap mampu bersaing ketat.

Perbedaan performa dengan model lain pun sangat tipis:

  • Sekitar 0,5 poin pada konteks 32K
  • Sekitar 4,9 poin pada konteks 64K

Ini menunjukkan bahwa desain arsitektur dan data pelatihan yang tepat dapat menutup kesenjangan yang biasanya hanya bisa dicapai oleh model jauh lebih besar.

 

Peran Penting Teacher Model

Eksperimen juga menunjukkan bahwa kualitas teacher model memiliki pengaruh signifikan terhadap hasil akhir.

  • GLM-4.6 menghasilkan performa terbaik
  • GLM-4.5-Air memberikan hasil hampir setara dengan biaya jauh lebih rendah

Menariknya, perbedaan performa baru terasa signifikan ketika skala komputasi meningkat. Untuk sebagian besar kebutuhan praktis, penggunaan teacher yang lebih ringan justru menjadi pilihan paling efisien, terutama pada tahap eksplorasi dan prototipe.

 

Uji Nyata pada Repositori Skala Besar

Untuk membuktikan efektivitas metode ini, tim melakukan pengujian langsung pada tiga repositori terbesar dalam SWE-Bench:

  • Django
  • SymPy

Ketiganya memiliki sistem pengujian nyata, sehingga hasil evaluasi benar-benar mencerminkan performa di dunia nyata.

Hasilnya sangat mengesankan:

  • Hanya dengan 8.000 data sintetis per repositori
  • Model mampu menyamai bahkan melampaui model 100B+ parameter

Hasil pada konteks 32K:

  • Django: 52,23%
  • SymPy: 51,11%

Sebagai perbandingan:

  • GLM-4.5-Air hanya mencapai 51,20% dan 48,89%

Menggabungkan Django dan SymPy—yang mencakup lebih dari 60% total kasus SWE-Bench—membuktikan bahwa pendekatan ini benar-benar efektif dalam skenario nyata.

 

Dua Kekuatan Utama Pendekatan SERA

  1. Spesialisasi yang Sangat Efisien
    Salah satu keunggulan utama pendekatan SERA adalah kemampuannya melakukan spesialisasi model secara sangat efektif. Model berukuran 32B parameter yang dilatih secara khusus untuk satu codebase tertentu terbukti mampu menyaingi, bahkan dalam beberapa kasus melampaui, performa model raksasa berukuran 100B parameter atau lebih.

    Keunggulan ini terjadi karena model difokuskan pada satu lingkungan kode yang spesifik, sehingga pemahamannya terhadap struktur, pola, dan alur kerja menjadi jauh lebih mendalam. Dampaknya, model tidak perlu “menebak-nebak” konteks seperti model umum yang dilatih untuk berbagai jenis kode.

    Selain performa yang tinggi, model 32B ini juga:

    • Menggunakan memori yang jauh lebih kecil, sehingga lebih ringan dijalankan
    • Memberikan proses inferensi yang lebih cepat, cocok untuk penggunaan harian
    • Menekan biaya operasional secara signifikan, baik untuk server lokal maupun cloud

    Dengan kata lain, pendekatan spesialisasi ini memungkinkan efisiensi maksimal tanpa mengorbankan kualitas hasil.

  2. Sederhana namun Mudah Diskalakan
    Keunggulan berikutnya dari SERA adalah kesederhanaan arsitektur dan pipeline pelatihannya. Berbeda dengan banyak sistem agen coding lain, SERA tidak memerlukan reinforcement learning (RL) yang kompleks, infrastruktur mahal, atau pipeline eksperimen yang sulit direplikasi.Sebaliknya, SERA hanya mengandalkan tiga komponen utama:

    • Model open-source yang mudah diakses
    • Supervised fine-tuning (SFT) yang stabil dan mudah dikontrol
    • Data sintetis berkualitas tinggi yang dirancang menyerupai alur kerja developer

    Meski sederhana, pendekatan ini terbukti sangat skalabel. Pipeline yang sama dapat digunakan untuk berbagai ukuran model, berbagai repositori, dan berbagai kebutuhan, mulai dari eksperimen riset hingga penggunaan produksi.

    Hasil akhirnya pun tidak kalah dengan sistem kelas industri yang dibangun oleh tim besar dan infrastruktur mahal. Inilah yang menjadikan SERA solusi ideal bagi developer individu, tim kecil, maupun peneliti yang ingin membangun agen coding canggih secara efisien dan berkelanjutan.

 

Dirancang untuk Developer dan Peneliti

SERA sejak awal dirancang agar mudah digunakan oleh berbagai kalangan, mulai dari developer individu hingga peneliti dan tim kecil. Paket rilisnya disusun secara lengkap dan praktis, sehingga pengguna tidak perlu membangun sistem dari nol atau melakukan konfigurasi yang rumit.

Dalam satu paket rilis SERA, pengguna akan mendapatkan:

  • Model siap pakai yang dapat langsung digunakan untuk berbagai tugas coding
  • Kode lengkap untuk menjalankan, menyesuaikan, dan mengembangkan agen coding
  • Dataset agen sintetis yang telah dirancang untuk meniru alur kerja developer nyata
  • Resep pelatihan terstruktur yang memandu proses fine-tuning langkah demi langkah

Seluruh komponen tersebut dapat dijalankan hanya dengan dua baris perintah, tanpa memerlukan infrastruktur reinforcement learning (RL) yang kompleks. Dari sisi biaya, pendekatan ini sangat efisien. Replikasi model dapat dilakukan dengan biaya sekitar $400, dan untuk mencapai performa setara model kelas industri, biayanya hanya sekitar $12.000—jauh lebih rendah dibandingkan pendekatan konvensional.

Selain kemudahan dalam pelatihan dan penggunaan, SERA juga unggul dari sisi integrasi. Sistem ini:

  • Langsung kompatibel dengan Claude Code, sehingga mudah digunakan dalam proses pengembangan
  • Mudah diintegrasikan ke workflow pengembangan yang sudah ada, baik di lingkungan lokal maupun cloud
  • Cocok untuk berbagai kebutuhan, mulai dari riset akademik, pengembangan produk, hingga eksperimen internal perusahaan

Dengan kombinasi kemudahan, fleksibilitas, dan biaya rendah, SERA menjadi solusi agen coding yang benar-benar ramah bagi developer dan peneliti, tanpa mengorbankan performa maupun kualitas hasil.

 

Masa Depan Agen Coding yang Terbuka

Dengan menurunkan hambatan biaya dan kompleksitas, SERA membuka era baru dalam pengembangan agen coding. Kini:

  • Developer individu bisa membangun agen sendiri
  • Tim kecil dapat bersaing dengan laboratorium besar
  • Riset menjadi lebih transparan dan dapat direproduksi

Baik dijalankan secara lokal, di cloud, maupun di lingkungan internal perusahaan, SERA membuktikan bahwa agen coding canggih tidak lagi eksklusif. Masa depan pengembangan perangkat lunak kini berada di tangan siapa saja yang ingin membangunnya.

 

Penutup

Open Coding Agents menandai babak baru dalam dunia pengembangan perangkat lunak. Dengan pendekatan terbuka, efisien, dan mudah diadaptasi, teknologi ini membuka peluang besar bagi siapa saja untuk memiliki agen coding cerdas tanpa ketergantungan pada platform tertutup.

SERA membuktikan bahwa masa depan AI coding bukan soal ukuran model, melainkan kecerdasan dalam melatihnya. Bagi developer, peneliti, maupun tim kecil, ini adalah awal dari era baru pengembangan software yang lebih cepat, hemat, dan mandiri.

Bagikan artikel ini

Komentar ()

Video Terkait