Bagaimanapun, saya ingin tahu apakah ini tidak akan menjadi titik stabilitas untuk jenis model MLL yang menggunakan “prediksi kata berikutnya”.
Untuk mempertahankan model yang memadai, Anda harus memberinya data baru. Ini untuk membuka informasi baru dari penelitian ilmiah, dokumentasi kerangka kerja baru, dll., Dan sebagainya.
Sekarang kami memiliki situasi di mana jenis model ini mulai menjadi sangat populer. Jika ini terus berlanjut, pada titik tertentu Anda harus menghadapi situasi di mana sebagian besar konten di internet berasal dari jenis model ini.
Cara kerja model ini adalah “memprediksi kata berikutnya”. Mereka menggunakan kumpulan data mereka untuk secara logis mencari tahu apa kata berikutnya yang seharusnya. Sejauh ini, ini juga berarti bahwa jenis model ini tidak mampu benar-benar berinovasi dan “menciptakan” hal-hal baru.
Jadi mereka masih mengandalkan masukan manusia untuk informasi dan metode yang benar-benar baru.
Singkatnya, chatGPT dan Bard pandai meringkas, menyajikan, dan mengatur ulang informasi yang sudah tersedia.
Apa yang akan terjadi jika bahan pelajaran AI terkontaminasi dengan data AI? Jujur saya pikir ini adalah dataran tinggi / ambang batas yang akan kita hadapi.
(Jika ada yang mengalami déjà vu, saya sudah mengaduknya sebelumnya)
“Spesialis budaya pop. Ahli makanan yang setia. Praktisi musik yang ramah. Penggemar twitter yang bangga. Penggila media sosial. Kutu buku bepergian.”
More Stories
Nvidia mengerjakan laptop RTX 3050 dengan GPU Ada Lovelace seri RTX 40 – Komputer – Berita
Samsung ingin membuat ponsel baru yang “sangat berbeda”
Penyedot Debu Roomba Combo 10 Max iRobot Memiliki Dukungan Perangkat Keras – Beranda – Berita