ເລື່ອງການຮັບຮອງເອົາ AI ຖືກຄຸກຄາມດ້ວຍຄວາມຢ້ານກົວ ເພາະໂຄງການປະສິດທິພາບໃນມື້ນີ້ເບິ່ງຄືວ່າຈະເຮັດໃຫ້ວຽກງານໃນມື້ອື່ນຫຼຸດລົງ. ຜູ້ນໍາຈໍາເປັນຕ້ອງໄດ້ຮັບຄວາມໄວ້ວາງໃຈຈາກຄົນງານ

(SeaPRwire) –   ຈາກບົດສະເໜີຂອງຄະນະກຳມະການບໍລິຫານ, ການໂທຫາລາຍຮັບ, ການປະຊຸມນອກສະຖານທີ່ຂອງຜູ້ນຳ ແລະ ການສົນທະນາຢູ່ເຄື່ອງກາເຟ, ຫົວຂໍ້ຂອງ AI ແມ່ນມີຢູ່ທົ່ວໄປ. ໂອກາດແມ່ນໃຫຍ່ຫຼວງ: ເພື່ອຈິນຕະນາການວຽກງານຄືນໃໝ່, ປົດປ່ອຍຄວາມຄິດສ້າງສັນ, ແລະ ຂະຫຍາຍສິ່ງທີ່ອົງກອນ ແລະ ປະຊາຊົນສາມາດເຮັດໄດ້. ຄວາມກົດດັນກໍເຊັ່ນກັນ.

ເພື່ອຕອບສະໜອງ, ຫຼາຍອົງກອນກຳລັງນຳໃຊ້ເຄື່ອງມື ແລະ ເປີດຕົວໂຄງການທົດລອງ. ບາງກິດຈະກຳເຫຼົ່ານີ້ແມ່ນຈຳເປັນ. ແຕ່ສ່ວນຫຼາຍ, ມັນພາດຈຸດສຳຄັນທີ່ເລິກເຊິ່ງກວ່າ. ຜູ້ນຳຫຼາຍຄົນຖາມວ່າ: AI ຈະປ່ຽນແປງພວກເຮົາແນວໃດ? ຄຳຖາມທີ່ດີກວ່າແມ່ນ: ພວກເຮົາຈະສ້າງການນຳພາແບບໃດເພື່ອຊີ້ນຳ AI?

ຄວາມແຕກຕ່າງນັ້ນສຳຄັນ ເພາະວ່າເຕັກໂນໂລຢີຢ່າງດຽວບໍ່ໄດ້ກຳນົດຜົນໄດ້ຮັບ. ການຕັດສິນໃຈຂອງຜູ້ນຳຕ່າງຫາກທີ່ກຳນົດ—ໝາຍເຖິງລະບົບ, ມາດຕະຖານ, ແລະ ຄວາມສາມາດທີ່ອົງກອນເລືອກທີ່ຈະສ້າງ ແລະ ນຳໃຊ້ເຂົ້າໃນວຽກງານຂອງພວກເຂົາ.

ນີ້ແມ່ນສາມວິທີທີ່ຈະເສີມສ້າງສິ່ງທີ່ຄົນສາມາດນຳມາສູ່ໂຕະໃນຍຸກຂອງ AI.

ຢ່າປ່ອຍໃຫ້ຄວາມຢ້ານກົວຫຼຸດຜ່ອນຄວາມທະເຍີທະຍານ

ຄຳໝັ້ນສັນຍາຂອງ AI ແມ່ນຢູ່ໃນການທົດລອງທີ່ກ້າຫານ. ເຖິງແມ່ນຢູ່ໃນອົງກອນທີ່ທັນສະໄໝທີ່ສຸດ, ຄວາມຢ້ານກົວກໍຍັງຈຳກັດມັນຢ່າງງຽບໆ. ດັ່ງນັ້ນຈຶ່ງມີຄວາມເຄັ່ງຕຶງ. ຜູ້ນຳຂໍໃຫ້ພະນັກງານຂອງພວກເຂົາທົດລອງຢ່າງກ້າຫານກັບ AI, ໃນຂະນະທີ່ເປີດຕົວໂຄງການປະສິດທິພາບທີ່ . ເມື່ອຄົນຮູ້ສຶກຖືກເປີດເຜີຍ, ພວກເຂົາຈະຫຼິ້ນນ້ອຍ. ແນວຄິດທີ່ກ້າວໜ້າຈະກາຍເປັນກໍລະນີການນຳໃຊ້ຂະໜາດນ້ອຍ ແລະ ບໍລິສັດປັບປຸງຮູບແບບໃນປັດຈຸບັນແທນທີ່ຈະສ້າງຮູບແບບຂອງມື້ອື່ນ.

ສິ່ງທີ່ຄວນເຮັດ: ຜູ້ນຳສາມາດຫຼຸດຜ່ອນຄວາມຢ້ານກົວໂດຍການສ້າງພື້ນທີ່ປ້ອງກັນສຳລັບການທົດລອງ AI, ປ້ອງກັນຈາກຄວາມກົດດັນດ້ານປະສິດທິພາບໄລຍະສັ້ນ. ການຄົ້ນຄວ້າພົບວ່າຄວາມປອດໄພທາງຈິດໃຈດັ່ງກ່າວ. ທີມງານທີ່ຮູ້ສຶກປອດໄພຈະລະບຸບັນຫາໄດ້ໄວຂຶ້ນ, ທ້າທາຍສົມມຸດຕິຖານໄດ້ຢ່າງເສລີ, ແລະ ຮຽນຮູ້ໄດ້ໄວຂຶ້ນ. ຖ້າຜູ້ນຳຕ້ອງການແນວຄິດທີ່ກ້າຫານ, ພວກເຂົາຕ້ອງຫຼຸດຜ່ອນຄ່າໃຊ້ຈ່າຍທີ່ຮັບຮູ້ຂອງການສະເໜີມັນ. ຖ້າບໍ່ດັ່ງນັ້ນ, AI ອາດຈະປັບປຸງປະສິດທິພາບໃນຂະນະທີ່ຊ່ວງເວລາແຫ່ງການຈິນຕະນາການຄືນໃໝ່ຜ່ານໄປ.

ປະຫວັດສາດພິສູດຈຸດນີ້. ເມື່ອ ແລະ ກຳລັງປະດິດສ້າງລະບົບການຜະລິດຂອງພວກເຂົາຄືນໃໝ່, ພວກເຂົາໄດ້ປົກປ້ອງວຽກເຮັດງານທຳຢ່າງຈະແຈ້ງ. ສິ່ງທີ່ບໍລິສັດໄດ້ເສຍໄປໃນການປະຢັດໄລຍະສັ້ນ, ພວກເຂົາໄດ້ຮັບໃນນະວັດຕະກຳໄລຍະຍາວ. ປະຊາຊົນໄດ້ຮັບການຊຸກຍູ້ໃຫ້ສ່ຽງໄພ ເພາະພວກເຂົາເຊື່ອວ່າຜົນປະໂຫຍດດ້ານຜະລິດຕະພັນຈະຖືກແບ່ງປັນ, ບໍ່ແມ່ນຖືກນຳໃຊ້ເປັນອາວຸດ.

ການສ້າງໂອກາດໃຫ້ຄົນໄດ້ຮຽນຮູ້ແມ່ນອີກວິທີໜຶ່ງທີ່ຈະຊ່ວຍຫຼຸດຜ່ອນຄວາມຢ້ານກົວ ແລະ ປົດປ່ອຍຄົນໃຫ້ຄິດນອກເໜືອຈາກສິ່ງທີ່ເປັນໄປໄດ້ງ່າຍ. ນັ້ນແມ່ນແນວຄິດທີ່ຢູ່ເບື້ອງຫຼັງ mindset ທີ່ ; ນີ້ເຮັດໃຫ້ມັນບໍ່ເປັນຫຍັງທີ່ຈະບໍ່ຮູ້ທຸກຢ່າງແລ້ວ ແລະ ປະກອບສ່ວນເຂົ້າໃນຄວາມກ້າວໜ້າຂອງຜະລິດຕະພັນ ແລະ ຍຸດທະສາດ. ອີກວິທີໜຶ່ງແມ່ນການສະເໜີເວລາປົກກະຕິສຳລັບວຽກງານສ້າງສັນ, ເຊັ່ນ: ພຶດຕິກຳ “20% time” ຂອງ Google, ເຊິ່ງວິສະວະກອນໄດ້ຮັບການຊຸກຍູ້ໃຫ້ສຳຫຼວດໂຄງການສ່ວນຕົວທີ່ສາມາດຊ່ວຍບໍລິສັດໄດ້. , ໃນບັນດາຜະລິດຕະພັນອື່ນໆ, ໄດ້ເລີ່ມຕົ້ນດ້ວຍວິທີນີ້.

ໃຊ້ AI ເປັນຂໍ້ມູນປ້ອນເຂົ້າ, ບໍ່ແມ່ນຄ່າເລີ່ມຕົ້ນ

ຈາກລໍ້ໄປຫາຕົວແທນ AI ຂອງມື້ວານ, ການກະທຳຂອງມະນຸດ. ອັນຕະລາຍແມ່ນເມື່ອຄົນເພິ່ງພາເຄື່ອງມືຫຼາຍຈົນພວກເຂົາຢຸດຄິດ.

ເມື່ອການເຂົ້າເຖິງແບບຈຳລອງ AI ແລະ ພະລັງງານຄອມພິວເຕີແຜ່ລາມອອກໄປ, ຂໍ້ໄດ້ປຽບດ້ານການວິເຄາະກໍຫຼຸດລົງ. ນັ້ນເຮັດໃຫ້ຄວາມສາມາດພິເສດຂອງມະນຸດໃນການຕີຄວາມໝາຍສະພາບການ, ຊັ່ງນໍ້າໜັກການແລກປ່ຽນ, ເຂົ້າໃຈຜົນກະທົບຂອງຜູ້ມີສ່ວນຮ່ວມ, ແລະ ຕັ້ງຄຳຖາມກ່ຽວກັບຜົນຜະລິດມີຄຸນຄ່າຫຼາຍຂຶ້ນ. institute ພົບວ່າທີມງານທີ່ລວມເອົາຄຳແນະນຳຂອງ AI ກັບການກວດສອບຂອງຜູ້ຊ່ຽວຊານແມ່ນມີປະສິດທິພາບສູງກວ່າລະບົບອັດຕະໂນມັດຢ່າງຄົບຖ້ວນ. ຫຼື, ດັ່ງທີ່ຄູສອນຊັ້ນປະຖົມປີທີໜຶ່ງຂອງລູກຊາຍຂ້ອຍເວົ້າວ່າ: ການສະຫຼາດຄືການຮູ້ວ່າໝາກເລັ່ນເປັນໝາກໄມ້. ການມີປັນຍາຄືການຮູ້ວ່າບໍ່ຄວນເອົາໝາກເລັ່ນໃສ່ສະຫຼັດໝາກໄມ້.

ສິ່ງທີ່ຄວນເຮັດ: ອອກແບບການຕັດສິນໃຈເພື່ອຮັບປະກັນວ່າ AI ໃຫ້ຂໍ້ມູນແກ່ການຕັດສິນໃຈແທນທີ່ຈະທົດແທນມັນ. ສຳລັບການຕັດສິນໃຈທີ່ສຳຄັນ, ຜູ້ນຳຄວນຮຽກຮ້ອງໃຫ້ທີມງານບັນທຶກເຫດຜົນຂອງມະນຸດທີ່ຢູ່ເບື້ອງຫຼັງການຕັດສິນໃຈທີ່ອີງໃສ່ AI, ເຮັດໃຫ້ເຫດຜົນຊັດເຈນເພື່ອໃຫ້ສາມາດທົດສອບໄດ້. ເມື່ອເວລາຜ່ານໄປ, ນີ້ຈະສ້າງຄວາມເຂົ້າໃຈ ແລະ ຄວາມຊົງຈຳຂອງອົງກອນ, ແລະ ຮັບປະກັນວ່າຄົນຮັບຜິດຊອບຕໍ່ການຕັດສິນໃຈຂອງພວກເຂົາ, ແທນທີ່ຈະຕຳໜິແບບຈຳລອງ. ທີມງານຍັງສາມາດສົ່ງເສີມການຄັດຄ້ານທີ່ມີໂຄງສ້າງເປັນການຕ້ານທານກັບຄວາມໝັ້ນໃຈເກີນໄປທີ່ຂັບເຄື່ອນດ້ວຍ AI ໂດຍການຖາມຄຳຖາມເຊັ່ນ, “ສິ່ງໃດຈະຕ້ອງເປັນຄວາມຈິງເພື່ອໃຫ້ສິ່ງນີ້ຄົງຢູ່?”

ຮັກສາມະນຸດເປັນຈຸດໃຈກາງຂອງການຕັດສິນຄຸນຄ່າ

ການນຳພາທີ່ມີຈັນຍາບັນໃນຍຸກ AI ແມ່ນກ່ຽວກັບການຕັດສິນໃຈ, ຢ່າງຈະແຈ້ງ ແລະ ຊ້ຳແລ້ວຊ້ຳອີກ, ບ່ອນທີ່ການປັບປຸງໃຫ້ດີທີ່ສຸດຕ້ອງຢຸດ ແລະ ຄວາມຮັບຜິດຊອບຂອງມະນຸດຕ້ອງເລີ່ມຕົ້ນ. ໃນບັນດາຄຳຖາມທີ່ຕ້ອງພິຈາລະນາ: ອັນກໍຣິດຄວນໄດ້ຮັບອະນຸຍາດໃຫ້ຕັດສິນໃຈຫຍັງແດ່? ໃຜເປັນຜູ້ຮັບຜິດຊອບເມື່ອການຕັດສິນໃຈທີ່ອີງໃສ່ AI ເຮັດໃຫ້ເກີດອັນຕະລາຍ?

ສິ່ງທີ່ຄວນເຮັດ: ມັນເປັນສິ່ງສຳຄັນສຳລັບຜູ້ນຳທີ່ຈະກຳນົດວ່າຂອບເຂດໃດທີ່ຈະບໍ່ຖືກຂ້າມຜ່ານ. ຝັງການຄຸ້ມຄອງເຂົ້າໃນຂັ້ນຕອນການເຮັດວຽກ, ຮັບປະກັນວ່າຄົນຕັດສິນໃຈທີ່ສຳຄັນທີ່ສຸດ; ຝຶກອົບຮົມຜູ້ຈັດການໃຫ້ຊັ່ງນໍ້າໜັກສິ່ງທີ່ເປັນໄປໄດ້ທຽບກັບສິ່ງທີ່ຮັບຜິດຊອບ.

ການຕັດສິນໃຈ, ຈັນຍາບັນ ແລະ ຄຸນຄ່າບໍ່ສາມາດມອບໝາຍໃຫ້ AI ໄດ້. ຄວາມສາມາດເຫຼົ່ານີ້ຕ້ອງຖືກສ້າງຂຶ້ນ, ແລ້ວຖືກດູແລ, ເພື່ອໃຫ້ພວກເຂົາກາຍເປັນທຳມະຊາດທີສອງ—ເລີ່ມຕົ້ນຈາກເທິງລົງລຸ່ມແຕ່ຝັງຢູ່ໃນທົ່ວອົງກອນ. ໃນທຸລະກິດ, ການແລກປ່ຽນແມ່ນຫຼີກລ້ຽງບໍ່ໄດ້; ໃນຍຸກຂອງ AI, ພວກເຂົາຕ້ອງມີເຈດຕະນາ.

ຜູ້ນຳທີ່ເຂົ້າໃຈຊ່ວງເວລານີ້ຢ່າງຖືກຕ້ອງຈະບໍ່ນຳໃຊ້ເຄື່ອງມື AI ພຽງແຕ່ຍ້ອນວ່າພວກເຂົາສາມາດເຮັດໄດ້; ພວກເຂົາຈະເຮັດແນວນັ້ນໃນລັກສະນະທີ່ແຕະຕ້ອງຄວາມປອດໄພທາງຈິດໃຈ, ການຕັດສິນໃຈຂອງມະນຸດ, ແລະ ຄວາມຊັດເຈນທາງຈັນຍາບັນ. ບໍ່ແມ່ນຄວາມກ້າວໜ້າ. ນະວັດຕະກຳທີ່ບໍ່ມີການຕັດສິນໃຈບໍ່ແມ່ນການນຳພາ.

AI ຈະບໍ່ຕັດສິນໃຈອະນາຄົດ. ຜູ້ນຳຈະຕັດສິນໃຈ—ແລະ ປະຫວັດສາດຈະບໍ່ໃຫ້ອະໄພກ່ຽວກັບຄວາມແຕກຕ່າງ.

ຄວາມຄິດເຫັນທີ່ສະແດງອອກໃນ commentary pieces ແມ່ນຄວາມຄິດເຫັນຂອງຜູ້ຂຽນເທົ່ານັ້ນ ແລະ ບໍ່ຈຳເປັນຕ້ອງສະທ້ອນເຖິງຄວາມຄິດເຫັນ ແລະ ຄວາມເຊື່ອຂອງ .

ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.

ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ

SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.