ความละเอียดหน้าจอ (Screen Resolution) ที่เราหยิบมากล่าวถึงในบทความนี้จะเกี่ยวกับความละเอียดของหน้าจอแสดงผล อาจจะเป็นของหน้าจอคอมพิวเตอร์, จอทีวี, จอสมาร์ทโฟน หรือแท็บเล็ต รวมไปถึงความละเอียดของวิดีโอก็ได้เช่นกัน เพราะใช้วิธีวัดค่าความละเอียดเหมือนกัน
จำนวนพิกเซลคือ สิ่งที่เราใช้ระบุความละเอียดของหน้าจอแสดงผลพิกเซล (Pixel) เป็นคำที่มีที่มาจากคำว่า "Picture" ที่แปลว่ารูปภาพ และ "Element" ที่แปลว่า องค์ประกอบ เจ้า Pixel นี้มีลักษณะเป็นรูปสี่เหลี่ยม ในการแสดงผลบนหน้าจอ Pixel จำนวนมากจะเรียงต่อกันเป็นตาราง โดย Pixel แต่ละจุดก็จะมีค่าสีที่แตกต่างกันออกไป เนื่องจาก Pixel นั้นมีขนาดที่เล็กมาก สายตาของเราจึงแยกมันไม่ออก (ถ้าไม่ได้พยายามซูมดูอย่างจริงจัง) แทนที่จะเห็นว่ามันเป็นก้อนสี่เหลี่ยมเรียงชิดติดกัน สมองของเราได้จัดการประมวลผลรวม Pixel ให้กลายเป็นภาพบนหน้าจอที่สวยงาม
ในการแสดงผล ยิ่งมีจำนวนพิกเซลสูงมากเท่าไหร่ ความคมชัดของภาพก็จะยิ่งสูงขึ้นเท่านั้น อย่างหน้าจอที่เห็นในภาพด้านล่างนี้ เป็นหน้าจอขนาด 9.6 นิ้ว ที่มีความละเอียดเพียง 32 x 32 พิกเซล ทำให้เราเห็นเม็ดพิกเซลอย่างชัดเจน แน่นอนว่าความละเอียดมันต่ำมาก ความคมชัดไม่ต้องพูดถึง มันเอาไว้สำหรับคนรักงานศิลปะแนว Pixel art เท่านั้นเอง ถ้าเอามารับชมรายการทีวี หรือใช้ร่วมกับคอมพิวเตอร์ คงไม่ไหว ดูข้อมูลบนหน้าจอไม่รู้เรื่องเป็นแน่ ...
สำหรับบทความนี้ จะพามาทำความรู้จักกับ ชื่อศัพท์เทคนิค ที่เกี่ยวข้องกับความละเอียดของหน้าจอ มากมาย ต่อไปจะได้แยกออกว่า แต่ละอันคืออะไรบ้าง อันไหนที่ภาพชัดกว่ากัน เป็นต้น มาดูกันเลย ...
ภาพจาก : https://divoominternational.com/products/divoom-pixoo-max-digital-frame-the-app-controlled-multi-purpose-diy-pixel-art-led-display-screen
ปัจจุบันอัตราส่วนภาพ (Aspect Ratio) กับความละเอียดของหน้าจอแสดงผล (Screen Resolution) จะมีการมาตรฐานที่ชัดเจนอยู่ แม้ผู้ผลิตสามารถทำขนาดหน้าจอแสดงผลให้แตกต่างจากค่ามาตรฐานได้ แต่ส่วนใหญ่ก็จะไม่แตกต่างไปจากเดิมมากนัก
ซึ่งในบทความนี้เราจะพูดถึงอัตราส่วนภาพ กับความละเอียดของหน้าจอแบบ 16:9 เป็นหลักนะครับ
คำว่า "เฮชดี (HD)" นั้น แท้จริงแล้ว ย่อมาจากคำว่า "High Definition" หรือถ้าแปลไทย ก็จะได้ความหมายว่า "ความคมชัดสูง" ซึ่งหลายคนอาจจะคุ้นชิน กับการเรียกมันว่า "Hi-Def" หรือ "ไฮเดฟ" นั่นเอง (อันนี้ก็แล้วแต่ที่จะเรียก)
โดย "HD" นั้น ก็ถูกจัดว่าเป็นหนึ่งในคำศัพท์เชิงเทคนิค ที่ถูกนำมาใช้จนเกร่อ (แถมยังมีการใช้ผิดอยู่บ่อยครั้ง) จนกระทั่งในที่สุดมันก็กลายเป็นคำที่ใช้เมื่อต้องการสื่อความหมายถึง อะไรก็ตามที่เพิ่มรายละเอียด หรือคุณภาพให้สูงขึ้นกว่าเดิมกว่าสิ่งที่เคยมีมาก่อน (อารมณ์เหมือนบ้านเราที่เรียกแฟ้บแทนผงซักฟอก)
สำหรับความละเอียด 540p หรือ qHD นั้นจะอยู่ที่ 960 x 540 พิกเซล โดยคำว่า "qHD" และ "QHD" นั้น ถึงแม้ว่าแม้จะเขียนคล้ายกัน (อาจจะทำให้หลายคนสับสน เหมือนกับ หน่วย Mbps กับ MBps) และต่างกันแค่ตัวพิมพ์เล็ก "q" กับตัวพิมพ์ใหญ่ "Q" เท่านั้น
แต่ในความเป็นจริงแล้ว ถ้าเป็นในเรื่องของ ความละเอียดนั้น มันมีความแตกต่างกันมากอยู่นะครับ เพราะคำว่า "qHD "นั้นมาจากคำว่า "quarter of Full HD" หมายความว่า มันมีความละเอียดน้อยกว่า FHD ถึง 4 เท่ากันเลยทีเดียว
เปรียบเทียบความละเอียดระหว่าง qHD, FHD
- qHD (quarter High Definition) : 960 x 540 = 518,400 พิกเซล
- FHD (Full HD) : 1,920 x 1,080 = 2,073,600 พิกเซล
ในอดีต สมัยที่เครื่องรับโทรทัศน์ หรือทีวี ที่มีความคมชัดสูง (HD TV) เพิ่งเปิดตัวใหม่ๆ ทางสถานีโทรทัศน์ หรือช่องทีวี ต่างๆ ก็ได้ปรับตัวมาฉาย หรือส่งภาพที่ความละเอียด 1280 x 720 พิกเซล เรียกโดยย่อว่า 720p ตัว "p" ที่ว่านี้ไม่ได้หมายถึง คำว่า Pixel แบบที่เราคุ้นเคยนะครับ แต่จริงๆ แล้ว "p" ในที่นี้ มาจากคำว่า "Progressive Scan" นั่นเอง
ข้อมูลเพิ่มเติม : Progressive Scan เป็นเทคนิคด้านการแสดงผลรูปแบบหนึ่ง อีกรูปแบบ คือ Interlaced Scan ที่นิยมใช้ในการถ่ายทอดสัญญาณทีวี เนื่องจากใช้แบนด์วิธต่ำกว่า แต่ก็มีคุณภาพด้อยกว่าเช่นกัน ซึ่งเราจะไม่กล่าวถึงมันในบทความนี้
และเนื่องจากหน้าจอแบบเก่า ส่วนใหญ่จะแสดงผลที่ความละเอียด 720 × 480 พิกเซล หรือไม่ก็ 720 x 576 พิกเซล จอรุ่นใหม่ที่มีความละเอียด 1,280 x 720 พิกเซล ก็จึงถูกเรียกมันว่าจอ HD นั่นเอง
อนึ่ง ก่อนที่จะเข้าสู่ยุค ความละเอียด FHD อันที่จริงแล้ว ระหว่างนั้น ก็มีจอแบบ HD+ ความละเอียด 1,600 x 900 พิกเซล หรือ 900p ออกมาด้วยนะครับ
สรุปโดยย่อ :
- 720p / HD หมายถึงความละเอียด 1,280 x 720 พิกเซล
- 900p / HD+ หมายถึงความละเอียด 1,600 x 900 พิกเซล
และต่อมา เมื่อหน้าจอถูกพัฒนาให้มีความละเอียดสูงขึ้นไปอีก ทำให้คำว่า "FHD" (ย่อมาจากคำว่า "Full HD") ถูกสร้างขึ้นมา ตามการเปลี่ยนแปลงของเทคโนโลยี
โดย FHD นั้นจะมีความละเอียด 1,920 x 1,080 พิกเซล หรือที่นิยมเรียกว่า 1080p ซึ่งความละเอียดนี้ได้กลายเป็นความละเอียดมาตรฐานของ สินค้าไอที ที่มีหน้าจอแสดงผล (Display Screen) หลายอย่าง ไม่ว่าจะเป็นสมาร์ททีวี (Smart TV), สมาร์ทโฟน (Smartphone), หน้าจอคอมพิวเตอร์ (Monitor) และหน้าจอของ โน้ตบุ๊ก หรือแล็ปท็อป (Notebook / Laptop Screen) เป็นต้น
เกร็ดความรู้ : ปัจจุบันสถานีโทรทัศน์ส่วนใหญ่ ก็เปลี่ยนมาใช้ความละเอียด FHD กันหมดแล้ว
และไม่ว่าจะเป็น ทั้งความละเอียดแบบ HD และ FHD ต่างใช้อัตราส่วนภาพแบบ 16:9 ที่สามารถเรียกได้ว่าเป็นความกว้างแบบจอกว้าง (Widescreen) แต่อย่างไรก็ตาม บนสมาร์ทโฟน จะสลับด้านกันเป็น 9:16 นะ เพราะปกติเราถือสมาร์ทโฟนในแนวตั้ง
สิ่งหนึ่งที่ควรจดจำไว้ คือ ไม่ว่าหน้าจอจะมีขนาดเท่าไหร่ จำนวนพิกเซลจะมีจำนวนเหมือนเดิมเสมอ ที่ต่างกัน คือ ขนาดของเม็ด Pixel เท่านั้น แน่นอนว่า FHD บนจอสมาร์ทโฟนย่อมมีความคมชัดสูงกว่าบนจอทีวีขนาดใหญ่ เราเรียกสิ่งนี้ว่า Pixels-per-inch (ppi) ถ้าสนใจเรื่องนี้ สามารถอ่านบทความเกี่ยวกับ "ppi" ได้ที่นี่
สรุปโดยย่อ :
- FHD / 1080p หมายถึงความละเอียด 1,920 x 1,080 พิกเซล
คำว่า "QHD" (ย่อมาจากคำว่า "Quad HD") จะมีความละเอียด 2,560 x 1,440 พิกเซล หรือเรียกว่า 1440p ก็ได้เช่นกัน โดยมันมีอัตราส่วนภาพ 16:9 ซึ่งก็เป็นความกว้างแบบ Widescreen แต่ด้วยเหตุผลในการโฆษณา ผู้ผลิตบางรายเลยเติมตัว "W' ลงไปข้างหน้า และเรียกมันว่า WQHD ถึงแม้ว่าความจริงมันก็เหมือนกับจอ QHD นั่นแหละ
และบ่อยครั้งที่ความละเอียด QHD ถูกเรียกว่า 2K เรื่องนี้อันที่จริงก็ไม่ถูกต้องสักทีเดียวนะครับ แม้ทุกวันนี้มันจะเป็นเรื่องที่ยอมรับกันโดยทั่วไปแล้วก็ตาม
ต้องอธิบายก่อนว่า 2K (รวมถึง 4K และ 8K ด้วย) แท้จริงแล้วมัน เป็นมาตรฐานความละเอียดที่กำหนดขึ้นมาโดย Digital Cinema Initiatives (DCI) ซึ่งเป็นกลุ่มของสตูดิโอภาพยนตร์ที่ก่อตั้งขึ้นเพื่อวางข้อกำหนดสำหรับสถาปัตยกรรมโรงภาพยนตร์ดิจิตอล
โดยทางกลุ่มดังกล่าว ได้กำหนดมาว่า 2K คือ ภาพยนตร์ที่ฉายด้วยความกว้างละเอียด 2,048 พิกเซล แต่ความสูงจะมีความหลากหลาย เพราะมันขึ้นอยู่กับ Cinemascope (อัตราส่วนภาพของการถ่ายทำภาพยนตร์ จะแตกต่างจากจอแสดงผล เราขอไม่ลงรายละเอียดในส่วนนี้นะครับ)
Format | Resolution | Display Aspect Ratio | Pixels |
---|---|---|---|
DCI 2K (Native Resolution) | 2048 × 1080 | 1.90:1 (256:135, ~17:9) | 2,211,840 |
DCI 2K (Flat Cropped) | 1998 × 1080 | 1.85:1 | 2,157,840 |
DCI 2K (CinemaScope Cropped) | 2048 × 858 | 2.39:1 | 1,755,136 |
ซึ่งหน้าจอความละเอียด 2,048 x 1,080 พิกเซล จริงๆ แล้วนั้นหายากมากๆ โดยแทบไม่มีวางจำหน่ายในท้องตลาดเลย ผู้ผลิตจอส่วนใหญ่จึงวางขายหน้าจอโดยใช้คำโฆษณาว่าเป็นหน้าจอความละเอียด 2K QHD รวมกันเลย แม้ความจริง หน้าจอ QHD ที่มีความละเอียด 2,560 x 1,440 พิกเซล จะมีความละเอียดสูงกว่า 2K แบบพื้นฐานก็ตาม
สรุปโดยย่อ :
- QHD / 1440p หมายถึงความละเอียด 2,560 x 1,440 พิกเซล
- 2K หมายถึงความละเอียด 2,048 x 1,080 พิกเซล
คำว่า "4K" และคำว่า "Ultra High Definition (UHD)" เป็น 2 คำที่สามารถสร้างความสับสนให้แก่ผู้ใช้ได้ง่าย ๆ เพราะแม้สองสิ่งนี้จะแตกต่างกัน แต่มันกลับถูกใช้แทนกันเป็นประจำราวกับว่ามันเป็นสิ่งเดียวกัน
หน้าจอความละเอียด 4K ที่แท้จริงนั้น เขาจะใช้กันในวงการมืออาชีพ และภาพยนตร์ดิจิทัล โดยมันจะมีความละเอียด 4,096 x 2,160 พิกเซล ส่วนความละเอียด UHD ที่เราเห็นกันในหน้าจอระดับทั่วไป และเป็นมาตรฐานการออกอากาศ จะมีความละเอียดเป็น 4 เท่า ของ FHD 1080p นั่นก็คือ 3,840 x 2,160 พิกเซล จะสังเกตได้ว่าจำนวนพิกเซล และอัตราส่วนภาพระหว่างหน้าจอในโรงภาพยนตร์ กับหน้าจอตามบ้านก็จะมีความแตกต่างกัน โดย UHD ใช้อัตราส่วนภาพแบบ 16:9 ทำให้มันรองรับเนื้อหาแบบ FHD หรือ 1080p ได้โดยไม่มีปัญหา
แต่ถึงอย่างไรก็ตาม ทั้งความละเอียดแบบ 4K และ UHD เราก็สามารถเรียกได้เหมือนกันว่า 2160p เพื่อให้เหมือนกับมาตรฐานของ HD ที่มีอยู่เดิม แต่มันก็ยิ่งทำให้เรื่องมันซับซ้อนยิ่งกว่าเดิม เพราะแม้จำนวนพิกเซลบนจอจะแตกต่างกันไม่มาก แต่มันก็คือแตกต่างกันอยู่ดี ตอนนี้ผู้ผลิตบางรายที่เลือกระบุแค่ว่าเป็นจอความละเอียด UHD เท่านั้น เพื่อลดความสับสน แต่ในแง่ของการตลาดจอทีวีแล้ว ส่วนใหญ่ก็ยังใช้สองคำนี้ร่วมกันอยู่ดี
สรุปโดยย่อ :
- 4K UHD / 2160p หมายถึงความละเอียด 3,840 x 2,160 พิกเซล
- 4K หมายถึงความละเอียด 4,096 x 2,160 พิกเซล
คำว่า "5K" หมายถึงการแสดงผลที่มีความละเอียดในแนวนอนประมาณ 5,000 พิกเซล ซึ่งส่วนใหญ่แล้ว หน้าจอก็จะทำออกมาที่ความละเอียด 5,120 x 2,880 พิกเซล ในอัตราส่วนภาพ 16:9 เพื่อให้แสดงเนื้อหาคุณภาพระดับ UHD หรือ FHD ได้เต็มจอ
ความละเอียดระดับ 5K ไม่ใช่ความละเอียดซึ่งเป็นที่นิยมมากนัก ส่วนใหญ่แล้วจะใช้แค่ในจอคอมพิวเตอร์ที่ต้องการ ค่า ppi สูง ที่ต้องการความคมชัดสูงเป็นพิเศษ เพราะเนื่องจากรายการทีวี และภาพยนตร์ดิจิทัลในปัจจุบันนี้จะบันทึกที่ความละเอียด 4K หรือ 8K เสียเป็นส่วนใหญ่
อุปกรณ์ที่รองรับความละเอียด 5K ที่มีในท้องตลาดก็อย่างเช่น
ภาพจาก : https://www.apple.com/shop/product/HMUB2LL/A/lg-ultrafine-5k-display
สรุปโดยย่อ :
- 5K หมายถึงความละเอียด 5,120 x 2,880 พิกเซล
ถึงแม้ว่า 4K จะเริ่มเป็นที่นิยมมากขึ้นแล้ว และมีจำนวนผู้ใช้เพิ่มขึ้นเรื่อย ส่วนความละเอียดระดับ 8K ก็เริ่มมีให้เห็นบ้างแล้ว แต่ก็เป็นเทคโนโลยีที่มีราคาสูงมาก ช่องว่างระหว่าง 4K กับ 8K ที่ค่อนข้างกว้างก็เลยทำให้มีผู้ผลิตอุปกรณ์ ที่รองรับ ความละเอียด 6K ออกมา แต่ว่าก็มีตัวเลือกค่อนข้างจำกัด
โดย ความละเอียด 6K ก็หมายถึงการแสดงผลที่มีความละเอียดในแนวนอนประมาณ 6000 พิกเซล อย่างเช่น หน้าจอ Pro Display XDR ของ Apple ก็ทำความละเอียดมา 6,016 x 3,384 พิกเซล อัตราส่วนภาพ 16:9 ในขณะที่กล้อง Blackmagic Pocket Cinema Camera 6K Pro เลือกทำมาที่ 6,144 x 3,456 พิกเซล
ภาพจาก : https://www.blackmagicdesign.com/products/blackmagicpocketcinemacamera/techspecs/W-CIN-16
สรุปโดยย่อ :
- 6K หมายถึงความละเอียดประมาณ 6,016 x 3,384 พิกเซล
ความละเอียด "8K UHD" หรือ "4320p" หมายถึง การแสดงผลที่มีความละเอียดในแนวนอนประมาณ 8,000 พิกเซล มีความละเอียดอยู่ที่ 7,680 x 4,320 พิกเซล โดยในปัจจุบันถือเป็นมาตรฐานที่มีความละเอียดสูงสุดที่ทาง Rec.2020 ได้กำหนดไว้
บางคนอาจจะคิดว่า 8K จะมีความละเอียดเพิ่มขึ้นเป็นสองเท่าของ 4K แต่ความจริงมันไม่ใช่นะครับ ลองมาคำนวณกันสักหน่อย
จะเห็นได้ว่ามันต่างกัน 4 เท่า เลยทีเดียว พูดง่าย ๆ ว่า เราสามารถนำจอ 4K มาวางเรียงกัน 4 จอ เพื่อรวมเป็น 8K จอเดียวได้นั่นเอง หรือถ้าเป็นจอ FHD ก็จะวางได้ 16 จอ เลยล่ะ
ภาพจาก : https://www.synopi.com/video-resolution-1080p-2k-uhd-4k-8k/
สรุปโดยย่อ :
- 8K UHD/4320p หมายถึงความละเอียด 7,680 x 4,320 พิกเซล
ในขณะที่ ความละเอียดแบบ 8K ยังเพิ่งตั้งไข่ ความละเอียดระดับ 16K ก็มีผู้ผลิตสร้างขึ้นมาแล้วนะครับ โดยความละเอียด 16K จะมีการแสดงผลที่มีความละเอียดในแนวนอนประมาณ 16,000 พิกเซล กันเลยทีเดียว
ข้อมูลเพิ่มเติม : เนื่องจากยังไม่มีการกำหนดมาตรฐานอย่างเป็นทางการ เมื่อพูดถึง 16K ก็จะเป็นความละเอียด 15,360 x 8,640 พิกเซล จำนวนพิกเซลเพิ่มขึ้นเป็น 4 เท่าของ 8K (วางจอ 8K เรียงกันได้ 4 จอ)
หน้าจอแบบความละเอียด 16K ได้ถูกเปิดตัวเป็นครั้งแรก โดยบริษัท Innolux ภายในงาน Touch Taiwan เมื่อเดือนสิงหาคม ค.ศ. 2018 (พ.ศ. 2561) และในเดือนมิถุนายน ค.ศ. 2019 (พ.ศ. 2562) กลุ่ม VESA ก็ได้ประกาศเปิดตัว DisplayPort 2.0 ที่รองรับสัญญาณภาพ 16K 60Hz แต่หน้าจอความละเอียดระดับนี้ ก็ยังไม่มีขายในท้องตลาดทั่วไปนะครับ เท่าที่ค้นข้อมูลมา เจอแค่ของ Sony เท่านั้น ที่วางจำหน่ายแล้ว ใหญ่สุด 790 นิ้ว ราคาก็ประมาณ $5,000,000 (ประมาณ 156,285,000 บาท) เท่านั้นเอง (เท่านั้นเอง !)
สรุปโดยย่อ :
- 16K หมายถึงความละเอียด 15,360 x 8,640 พิกเซล
ความละเอียด | ขนาด (ในหน่วยพิกเซล) | จำนวนพิกเซลทั้งหมด |
540p / qHD | 960 x 540 | 518,400 |
720p / HD | 1,280 x 720 | 921,600 |
900p / HD+ | 1,600 x 900 | 1,440,000 |
1080p / FHD (Full HD) | 1,980 x 1,080 | 2,138,400 |
DCI 2K (แบบ Native) | 2,048 x 1,080 | 2,211,840 |
2K QHD / WQHD หรือ 1440p | 2,560 x 1,440 | 3,686,400 |
4K UHD หรือ 2160p | 3,840 x 2,160 | 8,294,400 |
DCI 4K (แบบ Native) | 4,096 x 2,160 | 8,847,360 |
5K | 5,120 x 2,880 | 14,745,600 |
6K | 6,016 x 3,384 | 20,358,144 |
8K UHD หรือ 4320p | 7,680 x 4,320 | 33,177,600 |
16K | 15,360 x 8,640 | 132,710,400 |
|
แอดมินสายเปื่อย ชอบลองอะไรใหม่ไปเรื่อยๆ รักแมว และเสียงเพลงเป็นพิเศษ |
ความคิดเห็นที่ 1
16 มิถุนายน 2562 07:59:57
|
|||||||||||
GUEST |
ชล
q hd กับ full hd อันนัยดีกว่ากัน งง มากตอนนี้
|
||||||||||