เปิดเทคนิคการโจมตี ด้วย ‘ChatGPT’ แบบใหม่

Loading

  ปัจจุบัน ChatGPT ได้รับความสนใจจากผู้ใช้งานเป็นวงกว้างและคาดว่าจะเพิ่มสูงขึ้นเรื่อย ๆ ซึ่งจุดนี้เองนี้ที่ทำให้เหล่าบรรดาแฮ็กเกอร์มองเห็นโอกาสและช่องโหว่ในการบุกเข้าโจมตีเหยื่อ   ในวันนี้ผมจะขออธิบายเพื่อให้ท่านผู้อ่านได้เข้าใจถึงภัยคุกคามรูปแบบใหม่นี้เพื่อเป็นการตั้งรับกับสิ่งที่เราต้องเผชิญในเร็ว ๆ นี้กันนะครับ   ก่อนอื่นเลยผมขอพูดถึงเรื่องเทคนิคการโจมตีทางไซเบอร์แบบใหม่ที่ได้รับการขนานนามในวงการว่า “AI package hallucination” โดยได้รับการเปิดเผยจากทีมนักวิจัยว่า มีการใช้โมเดลภาษา OpenAI ChatGPT ทำให้แฮ็กเกอร์สามารถปล่อยสิ่งที่เป็นอันตรายเข้าไปในระบบที่นักพัฒนาทำงานอยู่   ChatGPT จะสร้างสิ่งต่าง ๆ ไม่ว่าจะเป็น URL ตัวอย่างอย่างอิงอ้าง (Reference) ไลบรารีโค้ด (Library code) และฟังก์ชันที่ไม่มีอยู่จริงขึ้นมาใหม่ โดยการปลอมแปลงโมเดลภาษาขนาดใหญ่หรือ LLM ซึ่งได้มีการรายงานแจ้งเตือนและอาจเป็นผลลัพธ์ที่ได้มาจากการเทรนนิ่งก่อนหน้านี้แล้ว   ทั้งนี้แฮ็กเกอร์จะใช้ความสามารถสร้างรหัสของ ChatGPT และใช้ประโยชน์จากไลบรารีโค้ดที่สร้างขึ้นเป็นแพ็กเกจเพื่อหลอกลวงและเผยแพร่ออกสู่โลกไซเบอร์ผ่าน typosquatting หรือ masquerading   เทคนิคนี้จะดำเนินการผ่านการตั้งคำถามกับ ChatGPT เพื่อขอแพ็คเกจการแก้ไขปัญหาเกี่ยวกับโค้ดและขอคำแนะนำแพ็กเกจที่หลากหลาย รวมไปถึงการขอบางแพ็คเกจที่ไม่ได้เผยแพร่ในที่เก็บข้อมูลที่ถูกกฏหมาย   จากนั้นจะเริ่มกระบวนการต่อไปคือการแทนที่แพ็กเกจเหล่านี้ทั้งหมดด้วยแพ็คเกจปลอมต่าง ๆ ซึ่งแฮ็กเกอร์จะหลอกล่อผู้ที่มีแนวโน้มจะใช้ตามคำแนะนำของ ChatGPT   ทั้งนี้ จากการทำ…

ทนายสหรัฐที่ใช้ตัวอย่างคดีปลอมในชั้นศาล ถูกศาลตัดสินสั่งปรับ 5,000 ดอลลาร์

Loading

  หลังจากการพิจารณาคดี ที่ทนายความ Steven Schwartz ใช้หลักฐานและตัวอย่างคดีปลอมจาก ChatGPT ในคดีฟ้องร้องเรียกค่าเสียหายกับสายการบิน Avianca ของโคลอมเบีย   ล่าสุด ศาลแขวงแมนแฮตตัน สหรัฐอเมริกา มีคำสั่งให้ Steven Schwartz, Peter LoDuca (ผู้รับช่วงต่อคดีจาก Steven) และ สำนักงานกฎหมายต้นสังกัด Levidow, Levidow & Oberman ถูกปรับ 5,000 ดอลลาร์   ผู้พิพากษาให้เหตุผลว่า Steven จงใจให้ข้อมูลเท็จกับศาลโดยการใช้หลักฐานและคดีปลอมจาก AI ขณะที่สำนักงานกฎหมายของฝั่ง Steven โต้แย้งว่าเป็นความผิดโดยบริสุทธิ์ใจ   ในคดีระหว่าง Steven และสายการบิน Avianca ซึ่งเป็นที่มาของเหตุการณ์ครั้งนี้ สายการบินขอให้ศาลยกฟ้อง ขณะที่ Steven รวบรวมหลักฐานคดีต่าง ๆ จาก ChatGPT ซึ่งเป็นข้อมูลปลอมมาใช้สู้คดี แต่กลับไม่สามารถหาที่มาของทั้ง 6 คดีที่นำมาอ้างได้เมื่อถูกทีมกฎหมายของสายการบินทวงถาม…

Group-IB เตือนแฮ็กเกอร์ได้ล็อกอิน ChatGPT ไปมากขึ้นเรื่อยๆ

Loading

  บริษัทความปลอดภัยไซเบอร์ Group-IB ออกรายงานเหตุข้อมูลรั่วไหลจากมัลแวร์ขโมยข้อมูล พบว่า ช่วงหลังมัลแวร์ที่อาละวาดหนักๆ 3 ตัว คือ Raccoon , Vidar , และ Redline ดึงข้อมูลล็อกอิน ChatGPT ไปได้มากขึ้นเรื่อยๆ ตามความนิยมในบริการ โดยรวมพบล็อกอิน ChatGPT หลุดกว่าแสนรายการแล้ว   ไม่มีข้อมูลว่ามัลแวร์เหล่านี้มุ่งดึงข้อมูลเว็บ ChatGPT เป็นการเฉพาะ แต่การใช้งาน ChatGPT ในช่วงหลังเกี่ยวกับงานมากขึ้นเรื่อยๆ รายงานนี้ก็เป็นเครื่องเตือนใจว่าควรดูแลความปลอดภัย ChatGPT ให้ดี และรีเซ็ตรหัสผ่านหากมีเหตุข้อมูลรั่วไหล การตั้งค่าเริ่มต้นของ ChatGPT จะเก็บประวัติการแชตเป็นค่าเริ่มต้น หากพนักงานใส่ข้อมูลที่เป็นความลับในแชตก็อาจจะทำให้ข้อมูลเหล่านี้หลุดไปยังคนร้ายด้วย ที่มา – Group-IB   ——————————————————————————————————————————————————————————   ที่มา : blognone     /     วันที่เผยแพร่ 21 มิ.ย.66 Link : https://www.blognone.com/node/134461

ChatGPT ความเสี่ยงจาก การสร้างเนื้อหาที่ผิดพลาด

Loading

    ChatGPT เป็นตัวอย่างหนึ่งของ Generative AI ที่สามารถสร้างเนื้อหาได้เองกำลังเริ่มมีการใช้งานอย่างแพร่หลายมากขึ้น ทั้งนำมาเขียนจดหมาย รายงาน บทความ หรือช่วยระดมความคิดเห็นต่างๆ รวมไปจนถึงนำไปเขียนโค้ดในการพัฒนาโปรแกรม   ChatGPT เป็นตัวอย่างหนึ่งของ Generative AI ที่สามารถสร้างเนื้อหาได้เองกำลังเริ่มมีการใช้งานอย่างแพร่หลายมากขึ้น ทั้งนำมาเขียนจดหมาย รายงาน บทความ หรือช่วยระดมความคิดเห็นต่างๆ รวมไปจนถึงนำไปเขียนโค้ดในการพัฒนาโปรแกรม ซึ่งเราจะเห็นความน่าทึ่งจากความสามารถของ ChatGPT ในการสร้างข้อมูล   แต่ในขณะเดียวกัน เราก็ยังพบว่า ChatGPT อาจจินตนาการและสร้างข้อมูลที่ไม่ถูกต้องมาได้ด้วย จนเริ่มมีคำถามว่าเราควรจะอนุญาตให้มีการใช้ ChatGPT ในงานด้านต่างๆ เพียงใด และหากมีการนำมาใช้งานจำเป็นจะต้องระบุด้วยหรือไม่ว่าเนื้อหาถูกสร้างจาก ChatGPT   เหตุผลหลักที่ทำให้ ChatGPT สร้างข้อมูลที่ไม่ถูกต้องได้นั้น เกิดจากการที่ ChatGPT ได้รับการเรียนรู้มาด้วยข้อมูลจำนวนมหาศาลจากเนื้อหาในอินเทอร์เน็ต ที่อาจประกอบไปด้วยข้อมูลทั้งที่ถูกต้อง และที่ไม่ถูกต้อง ซึ่ง ChatGPT ไม่สามารถตรวจสอบความถูกต้องของข้อมูลที่ได้จากการเรียนรู้ ดังนั้นจึงไม่แปลกใจที่มันจะสร้างข้อมูลที่ไม่ถูกต้องออกมาในบางครั้งจากคลังความรู้ที่ผิดๆ บางส่วน   นอกจากนี้ ChatGPT ถูกฝึกอบรมมาจากข้อมูลถึงเมื่อเดือนกันยายน…

คำศัพท์ไอที น่ารู้ในปี 2023 Big Data, ChatGPT, scam คืออะไร?

Loading

      คำศัพท์ไอที น่ารู้ในปี 2023   คำศัพท์ไอที คำย่อ ตอนนี้มีเยอะแยะมากมาย เรามาดูกันดีกว่าว่า คำที่ฮิต ฮอท ถูกพูดถึงเยอะมาก ๆ ในตอนนี้มีคำว่าอะไรกันบ้างที่เราพลาดไม่ได้   ช่วงนี้เราจะเห็นเทคโนโลยีใหม่ ๆ เกิดขึ้นมาอยู่เรื่อยๆ ทำให้เราจะได้ยิน คำศัพท์ไอที แปลก ๆ ใหม่ ๆ หรือบางคำก็เป็นคนที่เราคุ้นเคย แต่เราก็อาจจะหลงลืมความหมายไปแล้ว งัันวันนี้เรามาได้รวบรวมคำศัพทางท์เทคโนโลยีที่น่าสนใจมาดูกันดีกว่าว่า มันหมายถึงอะไรกันบ้าง   คำศัพท์ไอที : ChatGPT ChatGPT เอไอที่มาแรงกลายเป็น Talk of the town กันมาตั้งแต่ปลายปีที่แล้ว ซึ่งจริง ๆ แล้ว ChatGPT ก็คือ Chatbotที่ มี AI โมเดลด้านภาษาที่ชื่อว่า GPT เวอร์ชัน 3.5 หรือ 4…

สหราชอาณาจักรเสนอ ควรมีการออก “ใบอนุญาตผู้พัฒนาเอไอ”

Loading

    พรรคฝ่ายค้านสหราชอาณาจักรเสนอ ควรมีการออก “ใบอนุญาต” สำหรับผู้ที่ต้องการพัฒนาปัญญาประดิษฐ์ ใครไม่มีจะพัฒนาเอไอไม่ได้   พรรคแรงงานแห่งสหราชอาณาจักรซึ่งเป็นพรรคฝ่ายค้าน เสนอว่า รัฐบาลสหราชอาณาจักรควรกำหนดให้มีการออก “ใบอนุญาต” สำหรับองค์กรหรือบริษัทที่ต้องการพัฒนาปัญญาประดิษฐ์ (เอไอ) และห้ามไม่ให้นักพัฒนาเทคโนโลยีทำงานเกี่ยวกับเครื่องมือปัญญาประดิษฐ์ขั้นสูง เว้นแต่จะมีใบอนุญาต   ลูซี พาวเวลล์ โฆษกฝ่ายดิจิทัลของพรรคแรงงาน บอกว่า ควรมีการออกกฎที่เข้มงวดมากขึ้นเกี่ยวกับบริษัทที่ฝึกอบรมและพัฒนาปัญญาประดิษฐ์บนชุดข้อมูลขนาดใหญ่ เหมือนที่ OpenAI ใช้สร้างแชตบอต ChatGPT     ความคิดเห็นของเธอเกิดขึ้นท่ามกลางความสนใจเกี่ยวกับเอไอที่เพิ่มขึ้นของเจ้าหน้าที่รัฐบาลระดับสูง เกี่ยวกับวิธีการควบคุมโลกที่กำลังเดินหน้าไปอย่างรวดเร็วของ โดยก่อนหน้านี้นายกรัฐมนตรีสหราชอาณาจักร ริชี ซูนัก ยอมรับว่า เอไออาจเป็นภัยคุกคามต่อมนุษยชาติ   แมตต์ คลิฟฟอร์ด ประธานสำนักงานเพื่อการวิจัยและการประดิษฐ์ (ARIA) หนึ่งในที่ปรึกษาของรัฐบาลเกี่ยวกับปัญญาประดิษฐ์ยังกล่าวเมื่อวานนี้ (5 มิ.ย.) ว่า มนุษยชาติอาจมีเวลาเพียง 2 ปีก่อนที่เอไอจะเอาชนะและมีสติปัญญาเหนือกว่ามนุษย์ได้   เขาบอกว่า เอไอกำลังพัฒนาเร็วกว่าที่คนส่วนใหญ่รับรู้ โดยมันสามารถถูกใช้เพื่อปล่อยอาวุธชีวภาพหรือการโจมตีทางไซเบอร์ขนาดใหญ่ได้ และเสริมว่ามนุษย์อาจถูกแซงหน้าอย่างรวดเร็วด้วยเทคโนโลยีที่พวกเขาสร้างขึ้น   คลิฟฟอร์ดกล่าวว่า “เป็นเรื่องจริงที่ถ้าเราพยายามสร้างปัญญาประดิษฐ์ที่ฉลาดกว่ามนุษย์และเราไม่รู้วิธีควบคุมมัน…