วันอังคารที่ 22 ธันวาคม พ.ศ. 2552
วันอาทิตย์ที่ 13 ธันวาคม พ.ศ. 2552
วิธีย่อรูป เป็นขนาดตามต้องการ โดยใข้โปรแกรม ACDSee
Sound Card (การ์ดเสียง)
Sound Card (การ์ดเสียง)
เสียงเป็นส่วนสำคัญของระบบมัลติมีเดียไม่น้อยกว่าภาพ ดังนั้นการ์ดเสียงจึงเป็นอุปกรณ์ จำเป็นที่สำคัญของระบบคอมพิวเตอร์ มัลติมีเดีย
การ์ดเสียงได้รับการพัฒนาคุณภาพอย่างรวดเร็วเพื่อ ให้ได้ประสิทธิภาพของเสียงและความผิดเพี้ยนน้อยที่สุด ตลอดจนระบบเสียง 3 มิติในปัจจุบัน ความชัดเจนของเสียง จะมีประสิทธิภาพดีเพียงใดนั้น ขึ้นอยู่กับปัจจัยหลัก 2 ประการ คือ อัตราการสุ่มตัวอย่าง และความแม่นยำ ของตัวอย่างที่ได้ ซึ่งความแม่นยำของตัวอย่างนั้นถูกกำหนด โดยความสามารถของ A/D Converter ว่ามีความละเอียดมากน้อยเพียงใด ทำอย่างไรจึงจะประมาณ ค่าสัญญาณดิจิตอลได้ใกล้เคียงกับสัญญาณเสียงมากที่สุด ความละเอียดของ A/D Converter นั้นถูก กำหนด โดยจำนวนบิตของสัญญาณดิจิตอลเอาต์พุต เช่น
- A/D Converter 8 bit จะสามารถแสดงค่าที่ต่างกันได้ 256 ระดับ
- A/D Converter 16 bit จะสามารถแสดงค่าที่ต่างกันได้ 65,536 ระดับ
หากจำนวนระดับมากขึ้นจะทำให้ความละเอียดยิ่งสูงขึ้นและการผิดเพี้ยนของสัญญาณเสียงยิ่งน้อยลง นั่นคือประสิทธิภาพที่ของเสียง ที่ได้รับดีขึ้นนั่นเอง แต่จำนวนบิตต่อหนึ่งตัวอย่างจะมากขึ้นด้วย
เสียงเป็นส่วนสำคัญของระบบมัลติมีเดียไม่น้อยกว่าภาพ ดังนั้นการ์ดเสียงจึงเป็นอุปกรณ์ จำเป็นที่สำคัญของระบบคอมพิวเตอร์ มัลติมีเดีย
การ์ดเสียงได้รับการพัฒนาคุณภาพอย่างรวดเร็วเพื่อ ให้ได้ประสิทธิภาพของเสียงและความผิดเพี้ยนน้อยที่สุด ตลอดจนระบบเสียง 3 มิติในปัจจุบัน ความชัดเจนของเสียง จะมีประสิทธิภาพดีเพียงใดนั้น ขึ้นอยู่กับปัจจัยหลัก 2 ประการ คือ อัตราการสุ่มตัวอย่าง และความแม่นยำ ของตัวอย่างที่ได้ ซึ่งความแม่นยำของตัวอย่างนั้นถูกกำหนด โดยความสามารถของ A/D Converter ว่ามีความละเอียดมากน้อยเพียงใด ทำอย่างไรจึงจะประมาณ ค่าสัญญาณดิจิตอลได้ใกล้เคียงกับสัญญาณเสียงมากที่สุด ความละเอียดของ A/D Converter นั้นถูก กำหนด โดยจำนวนบิตของสัญญาณดิจิตอลเอาต์พุต เช่น
- A/D Converter 8 bit จะสามารถแสดงค่าที่ต่างกันได้ 256 ระดับ
- A/D Converter 16 bit จะสามารถแสดงค่าที่ต่างกันได้ 65,536 ระดับ
หากจำนวนระดับมากขึ้นจะทำให้ความละเอียดยิ่งสูงขึ้นและการผิดเพี้ยนของสัญญาณเสียงยิ่งน้อยลง นั่นคือประสิทธิภาพที่ของเสียง ที่ได้รับดีขึ้นนั่นเอง แต่จำนวนบิตต่อหนึ่งตัวอย่างจะมากขึ้นด้วย
CPU
หน่วยประมวลผลกลาง (Central Processing Unit : CPU)
หน่วยประมวลผลกลางหรือซีพียู เรียกอีกชื่อหนึ่งว่า โปรเซสเซอร์ (Processor) หรือ ชิป (chip) นับเป็นอุปกรณ์ ที่มีความสำคัญมากที่สุด ของฮาร์ดแวร์เพราะมีหน้าที่ในการประมวลผลข้อมูลที่ผู้ใช้ป้อน เข้ามาทางอุปกรณ์อินพุต ตามชุดคำสั่งหรือโปรแกรมที่ผู้ใช้ต้องการใช้งาน หน่วยประมวลผลกลาง ประกอบด้วยส่วนประสำคัญ 3 ส่วน คือ
1. หน่วยคำนวณและตรรกะ (Arithmetic & Logical Unit : ALU)
หน่วยคำนวณตรรกะ ทำหน้าที่เหมือนกับเครื่องคำนวณอยู่ในเครื่องคอมพิวเตอร์โดยทำงานเกี่ยวข้องกับ การคำนวณทางคณิตศาสตร์ เช่น บวก ลบ คูณ หาร นอกจากนี้หน่วยคำนวณและตรรกะของคอมพิวเตอร์ ยังมีความสามารถอีกอย่างหนึ่งที่เครื่องคำนวณธรรมดาไม่มี คือ ความสามารถในเชิงตรรกะศาสตร์ หมายถึง ความสามารถในการเปรียบเทียบตามเงื่อนไข และกฏเกณฑ์ทางคณิตศาสตร์ เพื่อให้ได้คำตอบออกมาว่าเงื่อนไข นั้นเป็น จริง หรือ เท็จ เช่น เปรียบเทียบมากว่า น้อยกว่า เท่ากัน ไม่เท่ากัน ของจำนวน 2 จำนวน เป็นต้น ซึ่งการเปรียบเทียบนี้มักจะใช้ในการเลือกทำงานของเครื่องคอมพิวเตอร์ จะทำตามคำสั่งใดของโปรแกรมเป็น คําสั่งต่อไป
2. หน่วยควบคุม (Control Unit)
หน่วยควบคุมทำหน้าที่คงบคุมลำดับขั้นตอนการการประมวลผลและการทำงานของอุปกรณ์ต่างๆ ภายใน หน่วยประมวลผลกลาง และรวมไปถึงการประสานงานในการทำงานร่วมกันระหว่างหน่วยประมวลผลกลาง กับอุปกรณ์นำเข้าข้อมูล อุปกรณ์แสดงผล และหน่วยความจำสำรองด้วย เมื่อผู้ใช้ต้องการประมวลผล ตามชุดคำสั่งใด ผู้ใช้จะต้องส่งข้อมูลและชุดคำสั่งนั้น ๆ เข้าสู่ระบบ คอมพิวเตอร์เสียก่อน โดยข้อมูล และชุดคำสั่งดังกล่าวจะถูกนำไปเก็บไว้ในหน่วยความจำหลักก่อน จากนั้นหน่วยควบคุมจะดึงคำสั่งจาก ชุดคำสั่งที่มีอยู่ในหน่วยความจำหลักออกมาทีละคำสั่งเพื่อทำการแปล ความหมายว่าคำสั่งดังกล่าวสั่งให้ ฮาร์ดแวร์ส่วนใด ทำงานอะไรกับข้อมูลตัวใด เมื่อทราบความหมายของ คำสั่งนั้นแล้ว หน่วยควบคุมก็จะส่ง สัญญาณคำสั่งไปยังฮาร์แวร์ ส่วนที่ทำหน้าที่ ในการประมวลผลดังกล่าว ให้ทำตามคำสั่งนั้น ๆ เช่น ถ้าคำสั่ง ที่เข้ามานั้นเป็นคำสั่งเกี่ยวกับการคำนวณ หน่วยควบคุมจะส่งสัญญาณ คำสั่งไปยังหน่วยคำนวณและตรรกะ ให้ทำงาน หน่วยคำนวณและตรรกะก็จะไปทำการดึงข้อมูลจาก หน่วยความจำหลักเข้ามาประมวลผล ตามคำสั่งแล้วนำผลลัพธ์ที่ได้ไปแสดงยังอุปกรณ์แสดงผล หน่วยคงบคุมจึงจะส่งสัญญาณคำสั่งไปยัง อุปกรณ์แสดงผลลัพธ์ ที่กำหนดให้ดึงข้อมูลจากหน่วยความจำหลัก ออกไปแสดงให้เห็นผลลัพธ์ดังกล่าว อีกต่อหนึ่ง
3. หน่วยความจำหลัก (Main Memory)
คอมพิวเตอร์จะสามารถทำงานได้เมื่อมีข้อมูล และชุดคำสั่งที่ใช้ในการประมวลผลอยู่ในหน่วยความ จำหลักเรียบร้อยแล้วเท่านั้น และหลักจากทำการประมวลผลข้อมูลตามชุดคำสั่งเรียบร้อบแล้ว ผลลัพธ์ที่ได้ จะถูกนำไปเก็บไว้ที่หน่วยความจำหลัก และก่อนจะถูกนำออกไปแสดงที่อุปกรณ์แสดงผล
แรม (RAM)
RAM ย่อมาจากคำว่า Random-Access Memory เป็นหน่วยความจำของระบบ มีหน้าที่รับข้อมูลเพื่อส่งไปให้ CPU ประมวลผลจะต้องมีไฟเข้า Module ของ RAM ตลอดเวลา ซึ่งจะเป็น chip ที่เป็น IC ตัวเล็กๆ ถูก pack อยู่บนแผงวงจร หรือ Circuit Board เป็น module
เทคโนโลยีของหน่วยความจำมีหลักการที่แตกแยกกันอย่างชัดเจน 2 เทคโนโลยี คือหน่วยความจำแบบ DDR หรือ Double Data Rate (DDR-SDRAM, DDR-SGRAM) ซึ่งเป็นเทคโนโลยีที่พัฒนาต่อเนื่องมาจากเทคโนโลยีของหน่วยความจำแบบ SDRAM และ SGRAM และอีกหนึ่งคือหน่วยความจำแบบ Rambus ซึ่งเป็นหน่วยความจำที่มีแนวคิดบางส่วนต่างออกไปจากแบบอื่น
SDRAM
รูปแสดง SDRAM
อาจจะกล่าวได้ว่า SDRAM (Synchronous Dynamic Random Access Memory) นั้นเป็น Memory ที่เป็นเทคโนโลยีเก่าไปเสียแล้วสำหรับยุคปัจจุบัน เพราะเป็นการทำงานในช่วง Clock ขาขึ้นเท่านั้น นั้นก็คือ ใน1 รอบสัญญาณนาฬิกา จะทำงาน 1 ครั้ง ใช้ Module แบบ SIMM หรือ Single In-line Memory Module โดยที่ Module ชนิดนี้ จะรองรับ datapath 32 bit โดยทั้งสองด้านของ circuite board จะให้สัญญาณเดียวกัน
DDR - RAM
รูปแสดง DDR - SDRAM
หน่วยความจำแบบ DDR-SDRAM นี้พัฒนามาจากหน่วยความจำแบบ SDRAM เอเอ็มดีได้ทำการพัฒนาชิปเซตเองและให้บริษัทผู้ผลิตชิปเซตรายใหญ่อย่าง VIA, SiS และ ALi เป็นผู้พัฒนาชิปเซตให้ ปัจจุบันซีพียูของเอเอ็มดีนั้นมีประสิทธิภาพโดยรวมสูงแต่ยังคงมีปัญหาเรื่องความเสถียรอยู่บ้าง แต่ต่อมาเอเอ็มดีหันมาสนใจกับชิปเซตสำหรับซีพียูมากขึ้น ขณะที่ทางเอเอ็มดีพัฒนาชิปเซตเลือกให้ชิปเซต AMD 760 สนับสนุนการทำงานร่วมกับหน่วยความจำแบบ DDR เพราะหน่วยความจำแบบ DDR นี้ จัดเป็นเทคโนโลยีเปิดที่เกิดจากการร่วมมือกันพัฒนาของบริษัทยักษ์ใหญ่อย่างเอเอ็มดี, ไมครอน, ซัมซุง, VIA, Infineon, ATi, NVIDIA รวมถึงบริษัทผู้ผลิตรายย่อยๆ อีกหลายDDR-SDRAM เป็นหน่วยความจำที่มีบทบาทสำคัญบนการ์ดแสดงผล 3 มิติ
ทางบริษัท nVidia ได้ผลิต GeForce ใช้คู่กับหน่วยความจำแบบ SDRAM แต่เกิดปัญหาคอขวดของหน่วยความจำในการส่งถ่ายข้อมูลทำให้ทาง nVidia หาเทคโนโลยีของหน่วยความจำใหม่มาทดแทนหน่วยความจำแบบ SDRAM โดยเปลี่ยนเป็นหน่วยความจำแบบ DDR-SDRAM การเปิดตัวของ GeForce ทำให้ได้พบกับ GPU ตัวแรกแล้ว และทำให้ได้รู้จักกับหน่วยความจำแบบ DDR-SDRAM เป็นครั้งแรกด้วย การที่ DDR-SDRAM สามารถเข้ามาแก้ปัญหาคอคอดของหน่วยความจำบนการ์ดแสดงผลได้ ส่งผลให้ DDR-SDRAM กลายมาเป็นมาตรฐานของหน่วยความจำที่ใช้กันบนการ์ด 3 มิติ ใช้ Module DIMM หรือ Dual In-line Memory Module โดย Module นี้เพิ่งจะกำเนิดมาไม่นานนัก มี datapath ถึง 64 bit โดยทั้งสองด้านของ circuite board จะให้สัญญาณที่ต่างกัน
เทคโนโลยีของหน่วยความจำมีหลักการที่แตกแยกกันอย่างชัดเจน 2 เทคโนโลยี คือหน่วยความจำแบบ DDR หรือ Double Data Rate (DDR-SDRAM, DDR-SGRAM) ซึ่งเป็นเทคโนโลยีที่พัฒนาต่อเนื่องมาจากเทคโนโลยีของหน่วยความจำแบบ SDRAM และ SGRAM และอีกหนึ่งคือหน่วยความจำแบบ Rambus ซึ่งเป็นหน่วยความจำที่มีแนวคิดบางส่วนต่างออกไปจากแบบอื่น
SDRAM
รูปแสดง SDRAM
อาจจะกล่าวได้ว่า SDRAM (Synchronous Dynamic Random Access Memory) นั้นเป็น Memory ที่เป็นเทคโนโลยีเก่าไปเสียแล้วสำหรับยุคปัจจุบัน เพราะเป็นการทำงานในช่วง Clock ขาขึ้นเท่านั้น นั้นก็คือ ใน1 รอบสัญญาณนาฬิกา จะทำงาน 1 ครั้ง ใช้ Module แบบ SIMM หรือ Single In-line Memory Module โดยที่ Module ชนิดนี้ จะรองรับ datapath 32 bit โดยทั้งสองด้านของ circuite board จะให้สัญญาณเดียวกัน
DDR - RAM
รูปแสดง DDR - SDRAM
หน่วยความจำแบบ DDR-SDRAM นี้พัฒนามาจากหน่วยความจำแบบ SDRAM เอเอ็มดีได้ทำการพัฒนาชิปเซตเองและให้บริษัทผู้ผลิตชิปเซตรายใหญ่อย่าง VIA, SiS และ ALi เป็นผู้พัฒนาชิปเซตให้ ปัจจุบันซีพียูของเอเอ็มดีนั้นมีประสิทธิภาพโดยรวมสูงแต่ยังคงมีปัญหาเรื่องความเสถียรอยู่บ้าง แต่ต่อมาเอเอ็มดีหันมาสนใจกับชิปเซตสำหรับซีพียูมากขึ้น ขณะที่ทางเอเอ็มดีพัฒนาชิปเซตเลือกให้ชิปเซต AMD 760 สนับสนุนการทำงานร่วมกับหน่วยความจำแบบ DDR เพราะหน่วยความจำแบบ DDR นี้ จัดเป็นเทคโนโลยีเปิดที่เกิดจากการร่วมมือกันพัฒนาของบริษัทยักษ์ใหญ่อย่างเอเอ็มดี, ไมครอน, ซัมซุง, VIA, Infineon, ATi, NVIDIA รวมถึงบริษัทผู้ผลิตรายย่อยๆ อีกหลายDDR-SDRAM เป็นหน่วยความจำที่มีบทบาทสำคัญบนการ์ดแสดงผล 3 มิติ
ทางบริษัท nVidia ได้ผลิต GeForce ใช้คู่กับหน่วยความจำแบบ SDRAM แต่เกิดปัญหาคอขวดของหน่วยความจำในการส่งถ่ายข้อมูลทำให้ทาง nVidia หาเทคโนโลยีของหน่วยความจำใหม่มาทดแทนหน่วยความจำแบบ SDRAM โดยเปลี่ยนเป็นหน่วยความจำแบบ DDR-SDRAM การเปิดตัวของ GeForce ทำให้ได้พบกับ GPU ตัวแรกแล้ว และทำให้ได้รู้จักกับหน่วยความจำแบบ DDR-SDRAM เป็นครั้งแรกด้วย การที่ DDR-SDRAM สามารถเข้ามาแก้ปัญหาคอคอดของหน่วยความจำบนการ์ดแสดงผลได้ ส่งผลให้ DDR-SDRAM กลายมาเป็นมาตรฐานของหน่วยความจำที่ใช้กันบนการ์ด 3 มิติ ใช้ Module DIMM หรือ Dual In-line Memory Module โดย Module นี้เพิ่งจะกำเนิดมาไม่นานนัก มี datapath ถึง 64 bit โดยทั้งสองด้านของ circuite board จะให้สัญญาณที่ต่างกัน
สมัครสมาชิก:
บทความ (Atom)