- ដោយ Admin
- Oct 31, 2025
 
         
        កំពុងផ្ទុក...
 
                         AI chatbots ដូចជា ChatGPT និង Copilot តែងតែបំភ្លៃព័ត៌មាន និងតស៊ូដើម្បីបែងចែកការពិតពីមតិ។ នេះបើយោងតាមការសិក្សាថ្មីសំខាន់មួយពីអ្នកផ្សាយសាធារណៈអន្តរជាតិចំនួន ២២ រួមទាំង DW ផងដែរ។
AI chatbots ដូចជា ChatGPT និង Copilot តែងតែបំភ្លៃព័ត៌មាន និងតស៊ូដើម្បីបែងចែកការពិតពីមតិ។ នេះបើយោងតាមការសិក្សាថ្មីសំខាន់មួយពីអ្នកផ្សាយសាធារណៈអន្តរជាតិចំនួន ២២ រួមទាំង DW ផងដែរ។
ការសិក្សាថ្មីដ៏សំខាន់មួយដោយអង្គការប្រព័ន្ធផ្សព្វផ្សាយសេវាសាធារណៈចំនួន 22 រួមទាំង DW បានរកឃើញថា ជំនួយការ AI ដែលគេប្រើញឹកញាប់បំផុតចំនួន 4 បង្ហាញខ្លឹមសារព័ត៌មានខុស 45% នៃពេលវេលា ដោយមិនគិតពីភាសា ឬទឹកដី។
អ្នកសារព័ត៌មានមកពីស្ថាប័នផ្សព្វផ្សាយសេវាសាធារណៈជាច្រើន ដែលរួមមាន BBC (ចក្រភពអង់គ្លេស) និង NPR (សហរដ្ឋអាមេរិក) បានវាយតម្លៃការឆ្លើយតបរបស់ជំនួយការ AI បួននាក់ ឬ chatbots - ChatGPT, Microsoft's Copilot, Google's Gemini និង Perplexity AI ។
ការវាស់វែងលក្ខណៈវិនិច្ឆ័យដូចជាភាពត្រឹមត្រូវ ការផ្តល់ប្រភព ការផ្តល់បរិបទ សមត្ថភាពក្នុងការកែសម្រួលឱ្យបានត្រឹមត្រូវ និងសមត្ថភាពក្នុងការបែងចែកការពិតពីមតិ ការសិក្សាបានរកឃើញថាស្ទើរតែពាក់កណ្តាលនៃចម្លើយទាំងអស់មានយ៉ាងហោចណាស់បញ្ហាសំខាន់មួយ ខណៈដែល 31% មានបញ្ហាប្រភពធ្ងន់ធ្ងរ និង 20% មានកំហុសការពិតសំខាន់ៗ។
DW បានរកឃើញថា 53% នៃចម្លើយដែលផ្តល់ដោយជំនួយការ AI ចំពោះសំណួររបស់វាមានបញ្ហាសំខាន់ៗ ដោយ 29% ជួបប្រទះបញ្ហាជាក់លាក់ជាមួយនឹងភាពត្រឹមត្រូវ។
ក្នុងចំណោមកំហុសជាក់ស្តែងដែលធ្វើឡើងក្នុងការឆ្លើយតបទៅនឹងសំណួររបស់ DW គឺ Olaf Scholz ត្រូវបានតែងតាំងជាអធិការបតីអាល្លឺម៉ង់ ទោះបីជាលោក Friedrich Merz ត្រូវបានតែងតាំងជាអធិការបតីកាលពីមួយខែមុនក៏ដោយ។ ម្នាក់ទៀតឃើញ Jens Stoltenberg ត្រូវបានតែងតាំងជាអគ្គលេខាធិការអង្គការ NATO បន្ទាប់ពីលោក Mark Rutte បានចូលកាន់តំណែងរួចហើយ។
 ជំនួយការ AI បានក្លាយជាមធ្យោបាយទូទៅកាន់តែខ្លាំងឡើងសម្រាប់មនុស្សជុំវិញពិភពលោកក្នុងការទទួលបានព័ត៌មាន។ យោងតាមរបាយការណ៍ព័ត៌មានឌីជីថលរបស់វិទ្យាស្ថាន Reuters ឆ្នាំ 2025 7% នៃអ្នកប្រើប្រាស់ព័ត៌មានអនឡាញប្រើប្រាស់ AI chatbots ដើម្បីទទួលបានព័ត៌មាន ដោយតួលេខនេះកើនឡើងដល់ 15% សម្រាប់អ្នកដែលមានអាយុក្រោម 25 ឆ្នាំ។
ជំនួយការ AI បានក្លាយជាមធ្យោបាយទូទៅកាន់តែខ្លាំងឡើងសម្រាប់មនុស្សជុំវិញពិភពលោកក្នុងការទទួលបានព័ត៌មាន។ យោងតាមរបាយការណ៍ព័ត៌មានឌីជីថលរបស់វិទ្យាស្ថាន Reuters ឆ្នាំ 2025 7% នៃអ្នកប្រើប្រាស់ព័ត៌មានអនឡាញប្រើប្រាស់ AI chatbots ដើម្បីទទួលបានព័ត៌មាន ដោយតួលេខនេះកើនឡើងដល់ 15% សម្រាប់អ្នកដែលមានអាយុក្រោម 25 ឆ្នាំ។
អ្នកនៅពីក្រោយការសិក្សានិយាយថា វាផ្តល់នូវការបញ្ជាក់ថា ជំនួយការ AI ជាប្រព័ន្ធបំប្លែងខ្លឹមសារព័ត៌មានគ្រប់ប្រភេទ។
លោក Jean Philip De Tender អគ្គនាយករងនៃសហភាពផ្សព្វផ្សាយអឺរ៉ុប (EBU) ដែលសម្របសម្រួលការសិក្សាបាននិយាយថា "ការស្រាវជ្រាវនេះបង្ហាញឱ្យឃើញទាំងស្រុងថាការបរាជ័យទាំងនេះមិនមែនជាឧប្បត្តិហេតុដាច់ដោយឡែក" ។
"វាមានលក្ខណៈជាប្រព័ន្ធ ឆ្លងព្រំដែន និងពហុភាសា ហើយយើងជឿថានេះបង្កគ្រោះថ្នាក់ដល់ការជឿទុកចិត្តរបស់សាធារណៈជន។ នៅពេលដែលមនុស្សមិនដឹងថាគួរទុកចិត្តអ្វី ពួកគេនឹងឈប់ទុកចិត្តអ្វីទាំងអស់ ហើយវាអាចរារាំងការចូលរួមតាមលទ្ធិប្រជាធិបតេយ្យ។"
ការសិក្សាដែលមិនធ្លាប់មានពីមុនមក
នេះគឺជាគម្រោងស្រាវជ្រាវដ៏ធំបំផុតមួយនៃប្រភេទរបស់វារហូតមកដល់បច្ចុប្បន្ន ហើយធ្វើតាមការសិក្សាដែលធ្វើឡើងដោយ BBC ក្នុងខែកុម្ភៈ ឆ្នាំ 2025។ ការសិក្សានោះបានរកឃើញថាជាងពាក់កណ្តាលនៃចម្លើយ AI ទាំងអស់ដែលវាបានពិនិត្យមានបញ្ហាសំខាន់ៗ ខណៈដែលស្ទើរតែមួយភាគប្រាំនៃចម្លើយដែលដកស្រង់ខ្លឹមសារ BBC ជាប្រភពបានបង្ហាញពីកំហុសជាក់ស្តែងរបស់ខ្លួន។
ការសិក្សាថ្មីនេះបានមើលឃើញថាអង្គការប្រព័ន្ធផ្សព្វផ្សាយមកពី 18 ប្រទេស និងនៅទូទាំងក្រុមភាសាជាច្រើនបានអនុវត្តវិធីសាស្រ្តដូចគ្នានឹងការសិក្សារបស់ BBC ទៅនឹងការឆ្លើយតប AI ចំនួន 3,000 ។
បន្ទាប់មក អ្នកកាសែតបានពិនិត្យមើលចម្លើយប្រឆាំងនឹងជំនាញផ្ទាល់ខ្លួន និងប្រភពវិជ្ជាជីវៈ ដោយមិនដឹងថាជំនួយការណាផ្តល់ជូនពួកគេ។

នៅពេលប្រៀបធៀបជាមួយនឹងការសិក្សារបស់ BBC ពីប្រាំបីខែមុន លទ្ធផលបង្ហាញពីភាពប្រសើរឡើងបន្តិចបន្តួច ប៉ុន្តែជាមួយនឹងកម្រិតខ្ពស់នៃកំហុសនៅតែបង្ហាញឱ្យឃើញ។
លោក Peter Archer នាយកកម្មវិធី AI របស់ BBC បាននិយាយនៅក្នុងសេចក្តីថ្លែងការណ៍មួយថា "យើងមានការរំភើបចំពោះ AI និងរបៀបដែលវាអាចជួយយើងនាំមកនូវតម្លៃកាន់តែច្រើនដល់ទស្សនិកជន" ។ "ប៉ុន្តែមនុស្សត្រូវតែអាចជឿជាក់លើអ្វីដែលពួកគេអាន មើល និងឃើញ។ ទោះបីជាមានការកែលម្អខ្លះក៏ដោយ វាច្បាស់ណាស់ថានៅតែមានបញ្ហាសំខាន់ៗជាមួយជំនួយការទាំងនេះ។"
Gemini បានអនុវត្តយ៉ាងអាក្រក់បំផុតក្នុងចំណោម chatbots ទាំង 4 ដោយ 72% នៃការឆ្លើយតបរបស់វាមានបញ្ហាប្រភពសំខាន់ៗ។ នៅក្នុងការសិក្សារបស់ BBC, Copilot និង Gemini របស់ Microsoft ត្រូវបានចាត់ទុកថាជាអ្នកសំដែងដ៏អាក្រក់បំផុត។ ប៉ុន្តែឆ្លងកាត់ការសិក្សាទាំងពីរ ជំនួយការ AI ទាំងបួនមានបញ្ហា។
នៅក្នុងសេចក្តីថ្លែងការណ៍ដែលផ្តល់ទៅឱ្យ BBC កាលពីខែកុម្ភៈ អ្នកនាំពាក្យរបស់ OpenAI ដែលបង្កើត ChatGPT បាននិយាយថា "យើងគាំទ្រអ្នកបោះពុម្ពផ្សាយ និងអ្នកបង្កើត ដោយជួយអ្នកប្រើប្រាស់ ChatGPT ប្រចាំសប្តាហ៍ចំនួន 300 លាននាក់ ស្វែងរកមាតិកាដែលមានគុណភាពតាមរយៈការសង្ខេប សម្រង់ តំណច្បាស់លាស់ និងការបញ្ជាក់។"
អ្នកស្រាវជ្រាវអំពាវនាវឱ្យមានចំណាត់ការពីរដ្ឋាភិបាល និងក្រុមហ៊ុន AI
អ្នកផ្សាយ និងអង្គការប្រព័ន្ធផ្សព្វផ្សាយដែលនៅពីក្រោយការសិក្សាកំពុងអំពាវនាវឱ្យរដ្ឋាភិបាលជាតិចាត់វិធានការ។
នៅក្នុងសេចក្តីប្រកាសព័ត៌មាន EBU បាននិយាយថាសមាជិករបស់ខ្លួនកំពុង "ដាក់សម្ពាធ EU និងនិយតករជាតិឱ្យអនុវត្តច្បាប់ដែលមានស្រាប់ស្តីពីសុច្ចរិតភាពព័ត៌មាន សេវាឌីជីថល និងពហុនិយមប្រព័ន្ធផ្សព្វផ្សាយ"។

ពួកគេក៏បានគូសបញ្ជាក់ផងដែរថា ការត្រួតពិនិត្យឯករាជ្យនៃជំនួយការ AI ត្រូវតែជាអាទិភាពមួយឆ្ពោះទៅមុខ ដោយសារថាតើម៉ូដែល AI ថ្មីកំពុងដំណើរការលឿនប៉ុណ្ណា។
ទន្ទឹមនឹងនេះ EBU បានចូលរួមជាមួយក្រុមផ្សព្វផ្សាយ និងប្រព័ន្ធផ្សព្វផ្សាយអន្តរជាតិមួយចំនួនទៀត ដើម្បីបង្កើតយុទ្ធនាការរួមគ្នាមួយដែលមានឈ្មោះថា "Facts In: Facts Out" ដែលអំពាវនាវឱ្យក្រុមហ៊ុន AI ខ្លួនឯងទទួលខុសត្រូវបន្ថែមទៀតចំពោះរបៀបដែលផលិតផលរបស់ពួកគេដោះស្រាយ និងចែកចាយព័ត៌មានឡើងវិញ។
នៅក្នុងសេចក្តីថ្លែងការណ៍មួយ អ្នករៀបចំយុទ្ធនាការនេះបាននិយាយថា "នៅពេលដែលប្រព័ន្ធទាំងនេះបង្ខូចទ្រង់ទ្រាយ គុណលក្ខណៈមិនត្រឹមត្រូវ ឬ "បង្ខូចបរិបទព័ត៌មានដែលគួរឱ្យទុកចិត្ត ពួកវាធ្វើឱ្យខូចទំនុកចិត្តសាធារណៈ"។
"ការទាមទាររបស់យុទ្ធនាការនេះគឺសាមញ្ញ៖ ប្រសិនបើការពិតចូល ការពិតត្រូវតែចេញមក។ ឧបករណ៍ AI មិនត្រូវធ្វើឱ្យខូចដល់ភាពត្រឹមត្រូវនៃព័ត៌មានដែលពួកគេប្រើនោះទេ។"