“ຂ້ອຍຮູ້ສຶກບໍ່ສະບາຍໃຈຢ່າງຍິ່ງ”: ປະທານບໍລິສັດ Anthropic ເຕືອນວ່າກຸ່ມຜູ້ນຳດ້ານ AI, ລວມທັງຕົນເອງ, ບໍ່ຄວນໄດ້ຮັບຜິດຊອບຕໍ່ອະນາຄົດຂອງເທັກໂນໂລຢີນີ້

(SeaPRwire) –   ປະທານບໍລິສັດ Anthropic ທ່ານ Dario Amodei ບໍ່ຄິດວ່າຕົນເອງຄວນເປັນຜູ້ຕັດສິນໃຈໃນການກໍານົດກົດລະບຽບຄວາມປອດໄພຂອງ AI.

ໃນການສຳພາດກັບ Anderson Cooper ໃນລາຍການ 60 Minutes ຂອງ CBS News ທີ່ອອກອາກາດໃນເດືອນພະຈິກ 2025, ປະທານບໍລິສັດກ່າວວ່າ AI ຄວນຖືກຄຸ້ມຄອງຢ່າງເຂັ້ມງວດຂຶ້ນ, ໂດຍຫຼຸດຜ່ອນການຕັດສິນໃຈກ່ຽວກັບອະນາຄົດຂອງເຕັກໂນໂລຊີນີ້ໃຫ້ກັບພຽງຜູ້ນຳຂອງບໍລິສັດເຕັກໂນໂລຊີຂະໜາດໃຫຍ່ເທົ່ານັ້ນ.

“ຂ້າພະເຈົ້າຮູ້ສຶກບໍ່ສະບາຍໃຈຢ່າງຍິ່ງກັບການຕັດສິນໃຈເຫຼົ່ານີ້ໂດຍບໍລິສັດເລັກໆນ້ອຍໆ, ໂດຍຄົນຈຳນວນໜ້ອຍ,” Amodei ກ່າວ. “ແລະນີ້ແມ່ນເຫດຜົນໜຶ່ງທີ່ຂ້າພະເຈົ້າສະໜັບສະໜູນການຄຸ້ມຄອງເຕັກໂນໂລຊີຢ່າງຮັບຜິດຊອບແລະລະມັດລະວັງສະເໝີ.”

“ໃຜເລືອກທ່ານ ແລະ Sam Altman?” Cooper ຖາມ.

“ບໍ່ມີໃຜ. ໂດຍສັດຕະຍານ, ບໍ່ມີໃຜ,” Amodei ຕອບ.

ທ່ານເພີ່ມວ່າ Anthropic ໄດ້ນຳໃຊ້ຫຼັກການຂອງການເປີດເຜີຍຕໍ່ຂໍ້ຈຳກັດ ແລະ ອັນຕະລາຍຂອງ AI ໃນຂະນະທີ່ມັນພັດທະນາຕໍ່ໄປ. ກ່ອນການເຜີຍແພ່ການສຳພາດນີ້, ບໍລິສັດໄດ້ລາຍງານ “ກໍລະນີທຳອິດທີ່ມີຫຼັກຖານເອກະສານຂອງການໂຈມຕີຊີເບີໂດຍ AI ຂະໜາດໃຫຍ່ທີ່ດຳເນີນການໂດຍບໍ່ມີການແຊກແຊງຈາກມະນຸດເປັນຈຳນວນຫຼວງຫຼາຍ.”

Anthropic ໄດ້ກ່າວໃນອາທິດກ່ອນວ່າ ໄດ້ບໍລິຈາກເງິນໃຫ້ກັບ Public First Action, ເຊິ່ງເປັນ super PAC ທີ່ສຸມໃສ່ຄວາມປອດໄພ ແລະ ການຄຸ້ມຄອງ AI — ແລະ ເປັນອົງກອນທີ່ຕໍ່ຕ້ານໂດຍກົງກັບ super PAC ອື່ນໆ ທີ່ຮອງຮັບໂດຍນັກລົງທຶນຂອງຄູ່ແຂ່ງຢ່າງ OpenAI.

“ຄວາມປອດໄພຂອງ AI ຍັງເປັນເລື່ອງທີ່ໃຫ້ຄວາມສຳຄັນສູງສຸດຢູ່,” Amodei ໄດ້ກ່າວໃນບົດຄວາມປົກຫຸ້ມເດືອນມັງກອນ. “ທຸລະກິດຕ່າງໆ ໃຫ້ຄ່າກັບຄວາມໄວ້ວາງໃຈ ແລະ ຄວາມໜ້າເຊື່ອຖື,” ທ່ານກ່າວ.

ຍັງບໍ່ມີກົດໝາຍສະບັບໃດໆ ທີ່ກຳນົດຫ້າມກ່ຽວກັບ AI ຫຼື ກ່ຽວກັບຄວາມປອດໄພຂອງເຕັກໂນໂລຊີນີ້. ໃນຂະນະທີ່ ຫຼາຍລັດ ໄດ້ນຳສະເໜີກົດໝາຍກ່ຽວກັບ AI ໃນປີນີ້ ແລະ 38 ລັດໄດ້ຮັບຮອງ ຫຼື ອອກມາດຕະຖານດ້ານຄວາມໂປ່ງໃສ ແລະ ຄວາມປອດໄພ, ຜູ້ຊ່ຽວຊານໃນອຸດສາຫະກຳເຕັກໂນໂລຊີໄດ້ກະຕຸ້ນບໍລິສັດ AI ໃຫ້ຈັດການກັບຄວາມປອດໄພດ້ານຊີເບີຢ່າງຮີບດ່ວນ.

ໃນຕົ້ນປີກາຍນີ້, ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພຊີເບີ ແລະ ປະທານບໍລິສັດ Mandiant Kevin Mandia ໄດ້ຄາດຄະເນກ່ຽວກັບການໂຈມຕີຄວາມປອດໄພຊີເບີໂດຍ AI-agent ຄັ້ງທຳອິດຈະເກີດຂຶ້ນໃນອີກ 12-18 ເດືອນຂ້າງໜ້າ — ໝາຍຄວາມວ່າການເປີດເຜີຍຂອງ Anthropic ກ່ຽວກັບການໂຈມຕີທີ່ຖືກຂັດຂວາງນັ້ນ ໄດ້ເກີດຂຶ້ນກ່ອນເວລາທີ່ Mandia ໄດ້ຄາດໄວ້ເປັນເດືອນ.

Amodei ໄດ້ອະທິບາຍຂັ້ນຕອນຂອງອັນຕະລາຍ ທີ່ກ່ຽວຂ້ອງກັບ AI ທີ່ບໍ່ມີການຄວບຄຸມ: ເຕັກໂນໂລຊີນີ້ຈະສະແດງອອກເຖິງອະຄະຕິ ແລະ ຂໍ້ມູນຜິດໆ ກ່ອນ, ຄືດັ່ງທີ່ເກີດຂຶ້ນໃນປັດຈຸບັນ. ຕໍ່ໄປ, ມັນຈະສ້າງຂໍ້ມູນທີ່ເປັນອັນຕະລາຍໂດຍໃຊ້ຄວາມຮູ້ດ້ານວິທະຍາສາດ ແລະ ວິສະວະກຳທີ່ດີຂຶ້ນ, ກ່ອນທີ່ສຸດທ້າຍຈະນຳເອົາອັນຕະລາຍທີ່ຂົ່ມຂູ່ການດຳລົງຢູ່ຂອງມະນຸດໂດຍການລົບລ້າງອຳນາດການຕັດສິນໃຈຂອງມະນຸດ, ອາດຈະກາຍເປັນເອກະລາດເກີນໄປ ແລະ ກັກຂັງມະນຸດອອກຈາກລະບົບ.

ຄວາມກັງວົນນີ້ສະທ້ອນໃຫ້ເຫັນຄວາມກັງວົນຂອງ “ພໍ່ທຳມະຊາດແຫ່ງ AI” Geoffrey Hinton, ຜູ້ທີ່ໄດ້ຄາດຄະເນວ່າ AI ຈະມີຄວາມສາມາດໃນການຫຼອກລວງ ແລະ ຄວບຄຸມມະນຸດ, ບາງທີໃນອີກທົດສະວັດໜຶ່ງຂ້າງໜ້າ.

ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.

ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ

SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.

ການກວດສອບ ແລະ ການປ້ອງກັນ AI ຢ່າງເລິກເຊິ່ງ ແມ່ນພື້ນຖານຂອງການກໍ່ຕ