Hasilkan Audio dan Musik dari Teks, Meta Hadirkan Audiocraft


Meta

Meta

Meta memperkenalkan Audiocraft berbasis teknologi AI generatif yang dapat menghasilkan audio dan musik secara otomatis berdasarkan deskripsi teks.

Audiocraft didukung oleh tiga model AI yang berbeda yaitu MusicGen, AudioGen, dan EnCodec.

Meta telah melatih MusicGen dengan total durasi 20.000 jam rekaman dan dapat menghasilkan musik berdasarkan deskripsi teks yang dimasukkan. AudioGen yang dilatih Meta dengan data publik fokus pada menghasilkan efek suara.

Terakhir, EnCodec bertanggung jawab untuk mendekompresi sinyal audio dengan tingkat fidelitas tinggi.

"Dengan Audiocraft, Meta berharap setiap individu dapat bereksperimen dalam menyusun instrumen tanpa harus memainkan alat musik, karena cukup dengan menggunakan suara yang dihasilkan oleh komputer," kata Meta dalam blognya.

Meta menyatakan bahwa Audiocraft adalah perangkat lunak sumber terbuka (open source), dan siapa pun dapat mengaksesnya melalui situs github.com/facebookresearch/audiocraft.

Perangkat lunak yang diperlukan untuk membuat, melatih model, dan menjalankan inferensi juga tersedia di bawah lisensi sumber terbuka MIT, yang dapat digunakan secara gratis untuk aplikasi komersial maupun proyek penelitian.

Saat ini AudioCraft telah memiliki beberapa sampel musik dan efek suara yang dapat didengarkan di postingan blog. Meskipun semuanya terdengar klasik, hal ini dilakukan untuk menghindari masalah hukum terkait hak cipta.

Melansir dari Info Komputer, Meta mengakui bahwa Audiocraft membutuhkan sumber data yang beragam untuk melatihnya dengan lebih baik.

Karena itu, Meta berharap dengan membagikan kode sumber Audiocraft, para peneliti lain dapat menguji pendekatan baru untuk mengurangi potensi bias dan penyalahgunaan pada model AI generatif.

Kehadiran AI generatif untuk audio diprediksi akan menjadi perhatian besar di masa depan, seiring dengan popularitas AI generatif untuk teks yang sebelumnya telah menimbulkan beberapa gugatan hak cipta.

“Dengan membagikan kode untuk AudioCraft, kami berharap peneliti lain dapat lebih mudah menguji pendekatan baru untuk membatasi atau menghilangkan potensi bias dan penyalahgunaan model generatif," tulis Meta.


Bagikan artikel ini

Video Terkait