Una tarjeta de vídeo, también llamada tarjeta gráfica
(entre otros nombres) tiene a su cargo el procesamiento de los datos que
provienen del procesador principal (CPU o UCP) y convertirlos en información que se
pueda representar en dispositivos tales como los monitores y los televisores.
Cabe mencionar que este componente puede presentar una gran variedad de
arquitecturas, aunque comúnmente se denominan de igual forma, incluso si se
habla de un chip de video integrado en una placa madre
(motherboard); en este último caso, es más correcto decir GPU (Unidad de
Procesamiento Gráfico).
Desde su concepción, las tarjetas gráficas han incluido diversasprestaciones y funciones, tales como la posibilidad de sintonizar la televisión o de capturar secuencias de vídeo de un aparato externo. Es importante notar que no se trata de un componente hallado exclusivamente en los ordenadores
Su creación data del final de la década del 60, época en la cual se dejó atrás el uso de una impresora para visualizar la actividad de los ordenadores y se comenzó a usar monitores. Al principio, las resoluciones eran ínfimas en comparación a la ya conocida por todos alta definición. Fue gracias al trabajo de investigación y desarrollo de Motorola que las características de los chips se volvieron más complejas y sus productos dieron pie a que se estandarizara el nombre de tarjetas de vídeo.
A medida
que los ordenadores para uso personal y las primeras consolas de videojuegos se
hicieron populares,
se optó por integrar los chips gráficos en las placas madre, dado que esto
permitía disminuir considerablemente los costes de fabricación. A simple vista,
esto presenta una clara desventaja: la imposibilidad de actualizar el equipo; sin embargo, se trataba de sistemas cerrados, que eran
construidos tomando en consideración todos y cada uno de sus componentes, de
forma que el producto final fuera consistente y ofreciera el mayor rendimiento
posible.
0 comentarios:
Publicar un comentario