កំពុងផ្ទុក...

ថ្ងៃ សុក្រ ទី៣១ ខែ តុលា ឆ្នាំ ២០២៥

ការសិក្សាថ្មីដ៏សំខាន់បាននិយាយថា AI chatbots បង្ហាញព័ត៌មានមិនពិតស្ទើរតែពាក់កណ្តាល


  • ដោយ Admin
  • Oct 22, 2025
  • នៅក្នុង AI

AI chatbots ដូចជា ChatGPT និង Copilot តែងតែបំភ្លៃព័ត៌មាន និងតស៊ូដើម្បីបែងចែកការពិតពីមតិ។ នេះ​បើ​យោង​តាម​ការ​សិក្សា​ថ្មី​សំខាន់​មួយ​ពី​អ្នក​ផ្សាយ​សាធារណៈ​អន្តរជាតិ​ចំនួន ២២ រួម​ទាំង DW ផង​ដែរ។


ការសិក្សាថ្មីដ៏សំខាន់មួយដោយអង្គការប្រព័ន្ធផ្សព្វផ្សាយសេវាសាធារណៈចំនួន 22 រួមទាំង DW បានរកឃើញថា ជំនួយការ AI ដែលគេប្រើញឹកញាប់បំផុតចំនួន 4 បង្ហាញខ្លឹមសារព័ត៌មានខុស 45% នៃពេលវេលា ដោយមិនគិតពីភាសា ឬទឹកដី។

អ្នកសារព័ត៌មានមកពីស្ថាប័នផ្សព្វផ្សាយសេវាសាធារណៈជាច្រើន ដែលរួមមាន BBC (ចក្រភពអង់គ្លេស) និង NPR (សហរដ្ឋអាមេរិក) បានវាយតម្លៃការឆ្លើយតបរបស់ជំនួយការ AI បួននាក់ ឬ chatbots - ChatGPT, Microsoft's Copilot, Google's Gemini និង Perplexity AI ។

ការវាស់វែងលក្ខណៈវិនិច្ឆ័យដូចជាភាពត្រឹមត្រូវ ការផ្តល់ប្រភព ការផ្តល់បរិបទ សមត្ថភាពក្នុងការកែសម្រួលឱ្យបានត្រឹមត្រូវ និងសមត្ថភាពក្នុងការបែងចែកការពិតពីមតិ ការសិក្សាបានរកឃើញថាស្ទើរតែពាក់កណ្តាលនៃចម្លើយទាំងអស់មានយ៉ាងហោចណាស់បញ្ហាសំខាន់មួយ ខណៈដែល 31% មានបញ្ហាប្រភពធ្ងន់ធ្ងរ និង 20% មានកំហុសការពិតសំខាន់ៗ។

DW បានរកឃើញថា 53% នៃចម្លើយដែលផ្តល់ដោយជំនួយការ AI ចំពោះសំណួររបស់វាមានបញ្ហាសំខាន់ៗ ដោយ 29% ជួបប្រទះបញ្ហាជាក់លាក់ជាមួយនឹងភាពត្រឹមត្រូវ។

ក្នុងចំណោមកំហុសជាក់ស្តែងដែលធ្វើឡើងក្នុងការឆ្លើយតបទៅនឹងសំណួររបស់ DW គឺ Olaf Scholz ត្រូវបានតែងតាំងជាអធិការបតីអាល្លឺម៉ង់ ទោះបីជាលោក Friedrich Merz ត្រូវបានតែងតាំងជាអធិការបតីកាលពីមួយខែមុនក៏ដោយ។ ម្នាក់ទៀតឃើញ Jens Stoltenberg ត្រូវបានតែងតាំងជាអគ្គលេខាធិការអង្គការ NATO បន្ទាប់ពីលោក Mark Rutte បានចូលកាន់តំណែងរួចហើយ។

ជំនួយការ AI បានក្លាយជាមធ្យោបាយទូទៅកាន់តែខ្លាំងឡើងសម្រាប់មនុស្សជុំវិញពិភពលោកក្នុងការទទួលបានព័ត៌មាន។ យោងតាមរបាយការណ៍ព័ត៌មានឌីជីថលរបស់វិទ្យាស្ថាន Reuters ឆ្នាំ 2025 7% នៃអ្នកប្រើប្រាស់ព័ត៌មានអនឡាញប្រើប្រាស់ AI chatbots ដើម្បីទទួលបានព័ត៌មាន ដោយតួលេខនេះកើនឡើងដល់ 15% សម្រាប់អ្នកដែលមានអាយុក្រោម 25 ឆ្នាំ។

អ្នកនៅពីក្រោយការសិក្សានិយាយថា វាផ្តល់នូវការបញ្ជាក់ថា ជំនួយការ AI ជាប្រព័ន្ធបំប្លែងខ្លឹមសារព័ត៌មានគ្រប់ប្រភេទ។

លោក Jean Philip De Tender អគ្គនាយករងនៃសហភាពផ្សព្វផ្សាយអឺរ៉ុប (EBU) ដែលសម្របសម្រួលការសិក្សាបាននិយាយថា "ការស្រាវជ្រាវនេះបង្ហាញឱ្យឃើញទាំងស្រុងថាការបរាជ័យទាំងនេះមិនមែនជាឧប្បត្តិហេតុដាច់ដោយឡែក" ។

"វាមានលក្ខណៈជាប្រព័ន្ធ ឆ្លងព្រំដែន និងពហុភាសា ហើយយើងជឿថានេះបង្កគ្រោះថ្នាក់ដល់ការជឿទុកចិត្តរបស់សាធារណៈជន។ នៅពេលដែលមនុស្សមិនដឹងថាគួរទុកចិត្តអ្វី ពួកគេនឹងឈប់ទុកចិត្តអ្វីទាំងអស់ ហើយវាអាចរារាំងការចូលរួមតាមលទ្ធិប្រជាធិបតេយ្យ។"

ការសិក្សាដែលមិនធ្លាប់មានពីមុនមក

នេះគឺជាគម្រោងស្រាវជ្រាវដ៏ធំបំផុតមួយនៃប្រភេទរបស់វារហូតមកដល់បច្ចុប្បន្ន ហើយធ្វើតាមការសិក្សាដែលធ្វើឡើងដោយ BBC ក្នុងខែកុម្ភៈ ឆ្នាំ 2025។ ការសិក្សានោះបានរកឃើញថាជាងពាក់កណ្តាលនៃចម្លើយ AI ទាំងអស់ដែលវាបានពិនិត្យមានបញ្ហាសំខាន់ៗ ខណៈដែលស្ទើរតែមួយភាគប្រាំនៃចម្លើយដែលដកស្រង់ខ្លឹមសារ BBC ជាប្រភពបានបង្ហាញពីកំហុសជាក់ស្តែងរបស់ខ្លួន។

ការសិក្សាថ្មីនេះបានមើលឃើញថាអង្គការប្រព័ន្ធផ្សព្វផ្សាយមកពី 18 ប្រទេស និងនៅទូទាំងក្រុមភាសាជាច្រើនបានអនុវត្តវិធីសាស្រ្តដូចគ្នានឹងការសិក្សារបស់ BBC ទៅនឹងការឆ្លើយតប AI ចំនួន 3,000 ។

បន្ទាប់​មក អ្នក​កាសែត​បាន​ពិនិត្យ​មើល​ចម្លើយ​ប្រឆាំង​នឹង​ជំនាញ​ផ្ទាល់​ខ្លួន និង​ប្រភព​វិជ្ជាជីវៈ ដោយ​មិន​ដឹង​ថា​ជំនួយការ​ណា​ផ្តល់​ជូន​ពួក​គេ។


នៅពេលប្រៀបធៀបជាមួយនឹងការសិក្សារបស់ BBC ពីប្រាំបីខែមុន លទ្ធផលបង្ហាញពីភាពប្រសើរឡើងបន្តិចបន្តួច ប៉ុន្តែជាមួយនឹងកម្រិតខ្ពស់នៃកំហុសនៅតែបង្ហាញឱ្យឃើញ។

លោក Peter Archer នាយកកម្មវិធី AI របស់ BBC បាននិយាយនៅក្នុងសេចក្តីថ្លែងការណ៍មួយថា "យើងមានការរំភើបចំពោះ AI និងរបៀបដែលវាអាចជួយយើងនាំមកនូវតម្លៃកាន់តែច្រើនដល់ទស្សនិកជន" ។ "ប៉ុន្តែមនុស្សត្រូវតែអាចជឿជាក់លើអ្វីដែលពួកគេអាន មើល និងឃើញ។ ទោះបីជាមានការកែលម្អខ្លះក៏ដោយ វាច្បាស់ណាស់ថានៅតែមានបញ្ហាសំខាន់ៗជាមួយជំនួយការទាំងនេះ។"

Gemini បានអនុវត្តយ៉ាងអាក្រក់បំផុតក្នុងចំណោម chatbots ទាំង 4 ដោយ 72% នៃការឆ្លើយតបរបស់វាមានបញ្ហាប្រភពសំខាន់ៗ។ នៅក្នុងការសិក្សារបស់ BBC, Copilot និង Gemini របស់ Microsoft ត្រូវបានចាត់ទុកថាជាអ្នកសំដែងដ៏អាក្រក់បំផុត។ ប៉ុន្តែឆ្លងកាត់ការសិក្សាទាំងពីរ ជំនួយការ AI ទាំងបួនមានបញ្ហា។

នៅក្នុងសេចក្តីថ្លែងការណ៍ដែលផ្តល់ទៅឱ្យ BBC កាលពីខែកុម្ភៈ អ្នកនាំពាក្យរបស់ OpenAI ដែលបង្កើត ChatGPT បាននិយាយថា "យើងគាំទ្រអ្នកបោះពុម្ពផ្សាយ និងអ្នកបង្កើត ដោយជួយអ្នកប្រើប្រាស់ ChatGPT ប្រចាំសប្តាហ៍ចំនួន 300 លាននាក់ ស្វែងរកមាតិកាដែលមានគុណភាពតាមរយៈការសង្ខេប សម្រង់ តំណច្បាស់លាស់ និងការបញ្ជាក់។"

អ្នកស្រាវជ្រាវអំពាវនាវឱ្យមានចំណាត់ការពីរដ្ឋាភិបាល និងក្រុមហ៊ុន AI

អ្នកផ្សាយ និងអង្គការប្រព័ន្ធផ្សព្វផ្សាយដែលនៅពីក្រោយការសិក្សាកំពុងអំពាវនាវឱ្យរដ្ឋាភិបាលជាតិចាត់វិធានការ។

នៅក្នុងសេចក្តីប្រកាសព័ត៌មាន EBU បាននិយាយថាសមាជិករបស់ខ្លួនកំពុង "ដាក់សម្ពាធ EU និងនិយតករជាតិឱ្យអនុវត្តច្បាប់ដែលមានស្រាប់ស្តីពីសុច្ចរិតភាពព័ត៌មាន សេវាឌីជីថល និងពហុនិយមប្រព័ន្ធផ្សព្វផ្សាយ"។


ពួកគេក៏បានគូសបញ្ជាក់ផងដែរថា ការត្រួតពិនិត្យឯករាជ្យនៃជំនួយការ AI ត្រូវតែជាអាទិភាពមួយឆ្ពោះទៅមុខ ដោយសារថាតើម៉ូដែល AI ថ្មីកំពុងដំណើរការលឿនប៉ុណ្ណា។

ទន្ទឹមនឹងនេះ EBU បានចូលរួមជាមួយក្រុមផ្សព្វផ្សាយ និងប្រព័ន្ធផ្សព្វផ្សាយអន្តរជាតិមួយចំនួនទៀត ដើម្បីបង្កើតយុទ្ធនាការរួមគ្នាមួយដែលមានឈ្មោះថា "Facts In: Facts Out" ដែលអំពាវនាវឱ្យក្រុមហ៊ុន AI ខ្លួនឯងទទួលខុសត្រូវបន្ថែមទៀតចំពោះរបៀបដែលផលិតផលរបស់ពួកគេដោះស្រាយ និងចែកចាយព័ត៌មានឡើងវិញ។

នៅក្នុងសេចក្តីថ្លែងការណ៍មួយ អ្នករៀបចំយុទ្ធនាការនេះបាននិយាយថា "នៅពេលដែលប្រព័ន្ធទាំងនេះបង្ខូចទ្រង់ទ្រាយ គុណលក្ខណៈមិនត្រឹមត្រូវ ឬ "បង្ខូចបរិបទព័ត៌មានដែលគួរឱ្យទុកចិត្ត ពួកវាធ្វើឱ្យខូចទំនុកចិត្តសាធារណៈ"។

"ការទាមទាររបស់យុទ្ធនាការនេះគឺសាមញ្ញ៖ ប្រសិនបើការពិតចូល ការពិតត្រូវតែចេញមក។ ឧបករណ៍ AI មិនត្រូវធ្វើឱ្យខូចដល់ភាពត្រឹមត្រូវនៃព័ត៌មានដែលពួកគេប្រើនោះទេ។"

Super Admin

Admin

សូម ចូលគណនី ដើម្បីបញ្ចេញមតិយោបល់លើអត្ថបទនេះ!

អ្នកក៏អាចចូលចិត្តផងដែរ