- ដោយ Admin
- Oct 30, 2025
 
         
        កំពុងផ្ទុក...
 
                        ក្រុមអ្នកស្រាវជ្រាវសន្តិសុខតាមអ៊ីនធឺណិតបានរាយការណ៍ពីបញ្ហាសុវត្ថិភាពថ្មីមួយនៅក្នុងកម្មវិធីរុករកបណ្ដាញភ្នាក់ងារដូចជា OpenAI ChatGPT Atlas ដែលបង្ហាញគំរូបញ្ញាសិប្បនិម្មិត (AI) ដែលស្ថិតនៅក្រោមការវាយប្រហារដែលបង្កគ្រោះថ្នាក់ដល់បរិបទ។
នៅក្នុងការវាយប្រហារដែលបង្កើតឡើងដោយក្រុមហ៊ុនសន្តិសុខ AI SPLX ជនល្មើសអាចបង្កើតគេហទំព័រដែលបម្រើខ្លឹមសារផ្សេងៗគ្នាទៅកាន់កម្មវិធីរុករក និង AI crawler ដែលដំណើរការដោយ ChatGPT និង Perplexity។ បច្ចេកទេសនេះត្រូវបានគេដាក់ឈ្មោះកូដថា AI-targeted cloaking។
វិធីសាស្រ្តនេះគឺជាបំរែបំរួលនៃការ cloaking ម៉ាស៊ីនស្វែងរក ដែលសំដៅទៅលើការអនុវត្តនៃការបង្ហាញកំណែមួយនៃទំព័របណ្ដាញដល់អ្នកប្រើប្រាស់ និងកំណែផ្សេងគ្នាទៅកាន់ search engine crawler ជាមួយនឹងគោលដៅចុងក្រោយនៃការរៀបចំចំណាត់ថ្នាក់ស្វែងរក។
ភាពខុសគ្នាតែមួយគត់ក្នុងករណីនេះគឺថា អ្នកវាយប្រហារបង្កើនប្រសិទ្ធភាពសម្រាប់ AI crawler ពីអ្នកផ្តល់សេវាផ្សេងៗតាមរយៈការត្រួតពិនិត្យភ្នាក់ងារអ្នកប្រើប្រាស់សាមញ្ញដែលនាំឱ្យមានការរៀបចំការចែកចាយខ្លឹមសារ។
អ្នកស្រាវជ្រាវសន្តិសុខ Ivan Vlahov និង Bastien Eymery បាននិយាយថា "ដោយសារតែប្រព័ន្ធទាំងនេះពឹងផ្អែកលើការទាញយកដោយផ្ទាល់ ខ្លឹមសារណាមួយដែលត្រូវបានបម្រើដល់ពួកគេក្លាយជាការពិតនៅក្នុងទិដ្ឋភាពទូទៅ AI សេចក្តីសង្ខេប ឬហេតុផលស្វយ័ត"។ "នោះមានន័យថាច្បាប់លក្ខខណ្ឌតែមួយ 'ប្រសិនបើភ្នាក់ងារអ្នកប្រើប្រាស់ = ChatGPT សូមបម្រើទំព័រនេះជំនួសវិញ' អាចបង្កើតអ្វីដែលអ្នកប្រើប្រាស់រាប់លាននាក់មើលឃើញថាជាលទ្ធផលដែលមានសិទ្ធិអំណាច"។
SPLX បាននិយាយថា ការបិទបាំងដែលផ្តោតលើ AI ខណៈពេលដែលសាមញ្ញក្នុងការបោកបញ្ឆោត ក៏អាចប្រែក្លាយទៅជាអាវុធព័ត៌មានមិនពិតដ៏មានឥទ្ធិពលផងដែរ ដែលធ្វើឲ្យប៉ះពាល់ដល់ទំនុកចិត្តលើឧបករណ៍ AI។ តាមរយៈការណែនាំ AI crawler ឲ្យផ្ទុកអ្វីផ្សេងទៀតជំនួសឱ្យខ្លឹមសារពិតប្រាកដ វាក៏អាចបង្កើតភាពលំអៀង និងជះឥទ្ធិពលដល់លទ្ធផលនៃប្រព័ន្ធដែលពឹងផ្អែកលើសញ្ញាបែបនេះផងដែរ។
ក្រុមហ៊ុនបាននិយាយថា "AI crawler អាចត្រូវបានបោកបញ្ឆោតយ៉ាងងាយស្រួលដូចម៉ាស៊ីនស្វែងរកដំបូងៗដែរ ប៉ុន្តែមានផលប៉ះពាល់កាន់តែច្រើន"។ "នៅពេលដែល SEO [ការបង្កើនប្រសិទ្ធភាពម៉ាស៊ីនស្វែងរក] រួមបញ្ចូល AIO [ការបង្កើនប្រសិទ្ធភាពបញ្ញាសិប្បនិម្មិត] កាន់តែខ្លាំងឡើង វារៀបចំការពិត"។
ការបង្ហាញព័ត៌មាននេះកើតឡើងជាការវិភាគលើភ្នាក់ងារកម្មវិធីរុករកប្រឆាំងនឹងសេណារីយ៉ូរំលោភបំពានទូទៅបំផុតចំនួន 20 ចាប់ពីការធ្វើគណនីច្រើនរហូតដល់ការធ្វើតេស្តកាត និងការក្លែងបន្លំការគាំទ្រ បានរកឃើញថាផលិតផលបានព្យាយាមស្ទើរតែគ្រប់សំណើដែលមានគំនិតអាក្រក់ដោយមិនចាំបាច់ធ្វើការ Jailbreak ណាមួយឡើយ នេះបើយោងតាមក្រុមវិភាគការគំរាមកំហែង hCaptcha (hTAG)។
លើសពីនេះ ការសិក្សាបានរកឃើញថា នៅក្នុងសេណារីយ៉ូដែលសកម្មភាពមួយត្រូវបាន "រារាំង" វាភាគច្រើនធ្លាក់ចុះដោយសារតែឧបករណ៍នេះបាត់បង់សមត្ថភាពបច្ចេកទេស ជាជាងដោយសារតែការការពារដែលបានបង្កើតឡើងនៅក្នុងពួកវា។ hTAG បានកត់សម្គាល់ថា ChatGPT Atlas ត្រូវបានគេរកឃើញថាអនុវត្តភារកិច្ចដែលមានហានិភ័យនៅពេលដែលពួកវាត្រូវបានកំណត់ជាផ្នែកមួយនៃលំហាត់បំបាត់កំហុស។
ម៉្យាងវិញទៀត ការប្រើប្រាស់កុំព្យូទ័រ Claude និង Gemini Computer Use ត្រូវបានកំណត់ថាមានសមត្ថភាពអនុវត្តប្រតិបត្តិការគណនីដ៏គ្រោះថ្នាក់ដូចជាការកំណត់ពាក្យសម្ងាត់ឡើងវិញដោយគ្មានការរឹតបន្តឹងណាមួយឡើយ ដោយក្រោយមកទៀតក៏បង្ហាញពីអាកប្បកិរិយាឈ្លានពានផងដែរ នៅពេលនិយាយអំពីប័ណ្ណបញ្ចុះតម្លៃដែលបង្ខំឱ្យមានការលួចចូលគេហទំព័រពាណិជ្ជកម្មអេឡិចត្រូនិក។
hTAG ក៏បានសាកល្បងវិធានការសុវត្ថិភាពរបស់ Manus AI ដោយរកឃើញថាវាអនុវត្តការគ្រប់គ្រងគណនី និងការលួចចូលវគ្គដោយគ្មានបញ្ហាអ្វីឡើយ ខណៈពេលដែល Perplexity Comet ដំណើរការការចាក់ SQL ដែលមិនបានជំរុញឱ្យបញ្ចេញទិន្នន័យដែលលាក់។
វាបាននិយាយថា "ភ្នាក់ងារជារឿយៗបានធ្វើលើសពីការរំពឹងទុក ដោយព្យាយាមចាក់ SQL ដោយគ្មានការស្នើសុំពីអ្នកប្រើប្រាស់ ចាក់ JavaScript នៅលើទំព័រដើម្បីព្យាយាមគេចវេះ paywalls និងច្រើនទៀត"។ "កង្វះខាតស្ទើរតែទាំងស្រុងនៃការការពារដែលយើងបានសង្កេតឃើញធ្វើឱ្យវាទំនងណាស់ដែលភ្នាក់ងារដូចគ្នាទាំងនេះក៏នឹងត្រូវបានប្រើប្រាស់យ៉ាងឆាប់រហ័សដោយអ្នកវាយប្រហារប្រឆាំងនឹងអ្នកប្រើប្រាស់ស្របច្បាប់ណាមួយដែលទាញយកពួកវា"។