Bagaimanapun, saya ingin tahu apakah ini tidak akan menjadi titik stabilitas untuk jenis model MLL yang menggunakan “prediksi kata berikutnya”.
Untuk mempertahankan model yang memadai, Anda harus memberinya data baru. Ini untuk membuka informasi baru dari penelitian ilmiah, dokumentasi kerangka kerja baru, dll., Dan sebagainya.
Sekarang kami memiliki situasi di mana jenis model ini mulai menjadi sangat populer. Jika ini terus berlanjut, pada titik tertentu Anda harus menghadapi situasi di mana sebagian besar konten di internet berasal dari jenis model ini.
Cara kerja model ini adalah “memprediksi kata berikutnya”. Mereka menggunakan kumpulan data mereka untuk secara logis mencari tahu apa kata berikutnya yang seharusnya. Sejauh ini, ini juga berarti bahwa jenis model ini tidak mampu benar-benar berinovasi dan “menciptakan” hal-hal baru.
Jadi mereka masih mengandalkan masukan manusia untuk informasi dan metode yang benar-benar baru.
Singkatnya, chatGPT dan Bard pandai meringkas, menyajikan, dan mengatur ulang informasi yang sudah tersedia.
Apa yang akan terjadi jika bahan pelajaran AI terkontaminasi dengan data AI? Jujur saya pikir ini adalah dataran tinggi / ambang batas yang akan kita hadapi.
(Jika ada yang mengalami déjà vu, saya sudah mengaduknya sebelumnya)
“Spesialis budaya pop. Ahli makanan yang setia. Praktisi musik yang ramah. Penggemar twitter yang bangga. Penggila media sosial. Kutu buku bepergian.”
More Stories
ASUS memperkenalkan monitor Superwide 49 inci dengan panel QD OLED dan monitor 4k144 38 inci – PC – Berita
Penjahat Marvel ini diperankan oleh Robert Downey Jr. Hampir sebelum dia menjadi Iron Man
Bintik matahari ini lebih besar dari Bumi