Bagaimanapun, saya ingin tahu apakah ini tidak akan menjadi titik stabilitas untuk jenis model MLL yang menggunakan “prediksi kata berikutnya”.
Untuk mempertahankan model yang memadai, Anda harus memberinya data baru. Ini untuk membuka informasi baru dari penelitian ilmiah, dokumentasi kerangka kerja baru, dll., Dan sebagainya.
Sekarang kami memiliki situasi di mana jenis model ini mulai menjadi sangat populer. Jika ini terus berlanjut, pada titik tertentu Anda harus menghadapi situasi di mana sebagian besar konten di internet berasal dari jenis model ini.
Cara kerja model ini adalah “memprediksi kata berikutnya”. Mereka menggunakan kumpulan data mereka untuk secara logis mencari tahu apa kata berikutnya yang seharusnya. Sejauh ini, ini juga berarti bahwa jenis model ini tidak mampu benar-benar berinovasi dan “menciptakan” hal-hal baru.
Jadi mereka masih mengandalkan masukan manusia untuk informasi dan metode yang benar-benar baru.
Singkatnya, chatGPT dan Bard pandai meringkas, menyajikan, dan mengatur ulang informasi yang sudah tersedia.
Apa yang akan terjadi jika bahan pelajaran AI terkontaminasi dengan data AI? Jujur saya pikir ini adalah dataran tinggi / ambang batas yang akan kita hadapi.
(Jika ada yang mengalami déjà vu, saya sudah mengaduknya sebelumnya)
More Stories
Membayar iklan di Facebook dari Indonesia menjadi lebih mudah: Pelajari cara melakukannya
Corsair meluncurkan monitor Xeneon 34 inci dengan panel QD OLED dengan resolusi 3440 x 1440 piksel – Komputer – Berita
Microsoft menyumbangkan Project Mono kepada komunitas Wine – IT – Berita