ChatGPT ภาพหลอน และการละเมิดข้อมูลส่วนบุคคล

Loading

  หลาย ๆ ท่านอาจเคยได้ยินว่า Generative AI อาจให้ข้อมูลที่ผิดพลาดหรือไม่ตรงกับความเป็นจริงได้ ดังนั้น ผู้ใช้งานโมเดลภาษาขนาดใหญ่ (LLM: Larger language models) จึงต้องมีความตระหนักรู้ในข้อจำกัดของเทคโนโลยีประกอบด้วย   ข้อมูลที่ผิดพลาดอาจจะเป็นข้อเท็จจริงพื้นฐาน หรืออาจจะเป็นข้อมูลเกี่ยวกับบุคคลก็ได้ ลองจินตนาการว่าหาก Generative AI ให้ข้อมูลที่ไม่ถูกต้องเกี่ยวกับตัวท่าน เช่น “วันเดือนปีเกิด” ท่านในฐานะของผู้ใช้งานโมเดลภาษาหเล่านั้นหรือเจ้าของข้อมูลส่วนบุคคลที่ไม่ถูกต้อง   และโดยเฉพาะอย่างยิ่งหากมีการให้ข้อมูลที่ไม่ถูกต้องที่อาจสร้างความเสื่อมเสียต่อเจ้าของข้อมูลส่วนบุคคล   ท่านจะมีสิทธิตามกฎหมายอย่างไรบ้างหรือไม่ เพื่อจะทำให้ข้อมูลส่วนบุคคลของตนที่ถูกประมวลผลหรือแสดงผลโดย Generative AI นั้นถูกต้อง หรือขอให้ลบข้อมูลเหล่านั้นออกจากการประมวลผลหรือการแสดงผลลัพธ์   การที่ระบบปัญญาประดิษฐ์หรือ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ในทางเทคนนิค เรียกว่า AI Hallucination หรือการประดิษฐ์ภาพหลอนโดย AI   คือกรณีนี้เป็นสถานการณ์ที่ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ซึ่งเป็นผลลัพธ์การตอบสนองที่สร้างโดย AI ที่ให้ข้อมูลที่เป็นเท็จหรือทำให้เข้าใจผิดว่าเป็นข้อเท็จจริง     เปรียบเสมือนภาพหลอนในจิตวิทยาของมนุษย์ที่อาจเกิดจากข้อจำกัดของโมเดล AI เอง…

NIST เตือนภัยวิธีการแฮ็ก AI ที่อาจมาล้วงข้อมูลผู้ใช้ได้

Loading

  สถาบันมาตรฐานและเทคโนโลยีแห่งชาติสหรัฐอเมริกา (NIST) พบว่าวิธีการโจมตีที่เรียกว่า Prompt Injection สามารถนำไปแฮ็ก AI เชิงสังเคราะห์ (GenAI) อย่าง ChatGPT ได้   NIST แบ่ง Prompt Injection เป็น 2 แบบ แบบแรกคือทางตรง (Direct Prompt Injection) เป็นการที่ผู้ใช้งานป้อนพรอมต์ (prompt) หรือคำสั่งไปยังตัว AI ด้วยข้อความที่ทำให้ AI ทำงานในแบบที่มันไม่ควรจะทำหรือไม่ได้รับอนุญาต   แบบที่ 2 คือแบบทางอ้อม (Indirect Prompt Injection) ซึ่งเน้นพุ่งเป้าทำลายหรือสร้างความเสียหายต่อข้อมูลที่ตัว AI ดึงมาใช้ในสร้างข้อมูลใหม่   Direct Prompt Injection หนึ่งในวิธีทางตรงที่ NIST บอกว่าเป็นที่รู้จักมากที่สุดคือ DAN หรือ Do Anything Now คือการที่ผู้ใช้สวมบทให้กับตัว…

ทำไมพ่อแม่ในสหราชอาณาจักรมองว่า กม.ความปลอดภัยออนไลน์ ยังคุ้มครองลูก ๆ ไม่เพียงพอ?

Loading

บริษัทเทคโนโลยีจะต้องดำเนินการมากขึ้นเพื่อดูแลความปลอดภัยของเด็กเล็กบนโลกอินเทอร์เน็ต หลังจากมีการประกาศใช้พระราชบัญญัติความปลอดภัยออนไลน์ (Online Safety Act) แต่กฎระเบียบใหม่นี้จะยังไม่เริ่มมีผลจนกว่าจะถึงปี 2025 และนักวิจารณ์ก็ออกมาบอกว่า มันยังไม่เข้มงวดเพียงพอ นี่คือกรณีศึกษาในสหราชอาณาจักร

งานวิจัยใหม่ ใช้ AI ช่วยหาช่องโหว่ โจมตีผ่านระบบคอมพิวเตอร์

Loading

จะเกิดอะไรขึ้น หากมีการใช้ AI ค้นหา Zero-Day และโจมตี Techhub อยากพาทุกคนมาดูงานวิจัย AI ตัวนึง ที่สามารถค้นหาช่องโหว่ Zero-day ได้ดีกว่าเครื่องมืออื่น ๆ

แฮ็กเกอร์กลุ่ม TA547 ใช้แชตบอต AI สร้างมัลแวร์โจมตีบริษัทเยอรมนี

Loading

ภัยคุกคาม ยุคดิจิทัล คงหนีไม่พ้นอาชญากรรมทางไซเบอร์ที่ใช้แชตบอตเอไอสร้างมัลแวร์เพื่อโจมตีบริษัท ทาง OpenAI และหน่วยงานความปลอดภัยของไมโครซอฟท์ เคยออกมาประกาศว่า แฮกเกอร์ที่หวังโจมตีทางไซเบอร์ เมื่อประยุกต์ใช้เครื่องมือเอไอ ทำให้มีโอกาสประสบความสำเร็จมากขึ้น

เกือบหนึ่งในสามของชาวอเมริกันใช้ ChatGPT สำหรับการทำงานมากขึ้น

Loading

  คนอเมริกันที่มีอายุระหว่าง 18-29 ปี ใช้งาน ChatGPT มากขึ้นจากปีก่อน พร้อมกันนี้ยังใช้เป็นเครื่องมือหนึ่งของการทำงานอีกด้วย   Pew Research เปิดเผยรายงานผลวิจัยเกี่ยวกับการใช้งาน ChatGPT ในกลุ่มคนต่างๆ พบว่า ChatGPT กลายเป็นเครื่องหนึ่งของการทำงานในสังคมอเมริกัน โดยเฉพาะกลุ่มคนทำงานที่มีอายุน้อย   การสำรวจของ Pew ซึ่งทำเมื่อเดือนกุมภาพันธ์ ระบุว่า 31 เปอร์เซ็นต์ของคนทำงานชาวอเมริกันที่มีอายุระหว่าง 18-29 ปี ใช้งาน ChatGPT ในที่ทำงาน เพิ่มขึ้นจากการสำรวจเมื่อมีนาคมปีที่แล้ว ซึ่งมีผู้ใช้งานเพียง 12 เปอร์เซ็นต์เท่านั้น   การใช้ ChatGPT ในการทำงานจากผลสำรวจของ Pew   ที่น่าสนใจคือ ตัวเลขการใช้งาน ChatGPT ในการทำงานค่อย ๆ ลดลงตามกลุ่มอายุ จากผลสำรวจของ Pew ชี้ให้เห็นว่า คนวัยทำงานอายุระหว่าง 30-49 ปีใช้เครื่องมือเอไอราว 21 เปอร์เซ็นต์ และคนวัยเก๋าอายุ…