Hardware

Definición del sistema de gráficos.


Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora u ordenador, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor. Las tarjetas gráficas más comunes son las disponibles para las computadoras compatibles con la IBM PC, debido a la enorme popularidad de éstas, pero otras arquitecturas también hacen uso de este tipo de dispositivos.
Es habitual que se utilice el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las GPU integradas en la placa base. Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación MPEG-2 y MPEG-4 o incluso conectores Firewire, de ratón, lápiz óptico o joystick.


Definición del procesador en el sistema grafico.


La unidad de procesamiento gráfico o GPU (acrónimo del inglés graphics processing unit) es un coprocesador dedicado al procesamiento de gráficos u operaciones de coma flotante, para aligerar la carga de trabajo del procesador central en aplicaciones como los videojuegos y o aplicaciones 3D interactivas. De esta forma, mientras gran parte de lo relacionado con los gráficos se procesa en la GPU, la unidad central de procesamiento (CPU) puede dedicarse a otro tipo de cálculos (como la inteligencia artificial o los cálculos mecánicos en el caso de los videojuegos).

La GPU implementa ciertas operaciones gráficas llamadas primitivas optimizadas para el procesamiento gráfico. Una de las primitivas más comunes para el procesamiento gráfico en 3D es el antialiasing, que suaviza los bordes de las figuras para darles un aspecto más realista. Adicionalmente existen primitivas para dibujar rectángulos, triángulos, círculos y arcos. Las GPU actualmente disponen de gran cantidad de primitivas, buscando mayor realismo en los efectos.

Las GPU están presentes en las tarjetas gráficas.


Definición del Buffer en el sistema gráfico.


Es un espacio de memoria, en el que se almacenan datos para evitar que el programa o recurso que los requiere, ya sea hardware o software, se quede sin datos durante una transferencia.
Normalmente los datos se almacenan en un buffer mientras son transferidos desde un dispositivo de entrada (como un ratón) o justo antes de enviarlos a un dispositivo de salida (como unos altavoces). También puede utilizarse para transferir datos entre procesos, de una forma parecida a los bufferes utilizados en telecomunicaciones. Un ejemplo de esto último ocurre en una comunicación telefónica, en la que al realizar una llamada esta se almacena, se disminuye su calidad y el número de bytes a ser transferidos, y luego se envían estos datos modificados al receptor.


Definición de memoria en el sistema gráfico.

Son chips de memoria que almacenan y transportan información entre sí, no son determinantes en el rendimiento máximo de la tarjeta gráfica, pero bien unas especificaciones reducidas pueden limitar la potencia de la GPU. Existen de dos tipos, Dedicada cuando, la tarjeta gráfica o la GPU dispone exclusivamente para sí esas memorias, ésta manera es la más eficiente y la que mejores resultados da; y compartida cuando se utiliza memoria en detrimento de la memoria RAM, ésta memoria es mucho más lenta que la dedicada y por tanto su rendimiento es menor.


Definición de dispositivos de salida en el sistema gráfico.


Los sistemas de conexión más habituales entre la tarjeta gráfica y el dispositivo visualizador (como un monitor o un televisor) son:

SVGA/Dsub-15: Estándar analógico de los años 1990; diseñado para dispositivos CRT, sufre de ruido eléctrico y distorsión por la conversión de digital a analógico y el error de muestreo al evaluar los píxeles a enviar al monitor. Se conecta mediante pines. Su utilización continúa muy extendida a día de hoy, aunque claramente muestra una reducción frente al DVI en los últimos años.

DVI: Sustituto del anterior, pero digital, fue diseñado para obtener la máxima calidad de visualización en las pantallas digitales o proyectores. Se conecta mediante pines. Evita la distorsión y el ruido al corresponder directamente un píxel a representar con uno del monitor en la resolución nativa del mismo. Cada vez más adoptado, aunque compite con el HDMI, pues el DVI no es capaz de transmitir audio.

HDMI: Tecnología propietaria transmisora de audio y vídeo digital de alta definición cifrado sin compresión en un mismo cable. Se conecta mediante patillas de contacto. No esta pensado inicialmente para monitores, sino para Televisiones, por ello no apaga la pantalla cuando deja de recibir señal y debe hacerse manualmente en caso de monitores.

Otras no tan extendidas por un uso minoritatio, no implementadas u obsoletas 
son:

DisplayPort: Puerto para tarjetas gráficas creado por VESA y rival del HDMI, transfiere vídeo a alta resolución y audio. Sus ventajas son que está libre de patentes, y por ende de regalías para incorporarlo a los aparatos, también dispone de unas pestañas para anclar el conector impidiendo que se desconecte el cable accidentalmente. Cada vez más tarjetas gráficas van adoptando este sistema, aunque a día de hoy, sigue siendo su uso minoritario, existe una versión reducida de dicho conector llamada Mini DisplayPort, muy usada para tarjetas gráficas con multitud de salidas simultáneas, como pueden ser 5.

S-Video: implementado sobre todo en tarjetas con sintonizador TV y/o chips con soporte de vídeo NTSC/PAL, simplemente se está quedando obsoleto.
Vídeo Compuesto: analógico de muy baja resolución mediante conector RCA. Completamente en desuso para tarjetas gráficas, aunque sigue siendo usado para TV.

Vídeo por componentes: Sistema analógico de transmisión de vídeo de alta definición, utilizado también para proyectores; de calidad comparable a la de SVGA, dispone de tres clavijas (Y, Cb y Cr). Anteriormente usado en PCs y estaciones de trabajo de gama alta, ha quedador relegado a TV y videoconsolas.

Disparidad Binocular.

Se conoce como disparidad binocular o retinal a la ligera diferencia entre los dos puntos de vista proporcionados por ambos ojos. La disparidad binocular es la forma de percibir profundidad y relieve más utilizada por el cerebro humano, y es la que permite ser más manipulada, convirtiéndose en la base para la creación de imágenes 3D en superficies llanas. El cerebro coge estos dos puntos de vista distintos y los integra, creando así un objeto en tres dimensiones.

Nuestro sistema visual humano es capaz de ver en tres dimensiones principalmente porque tenemos visión binocular. La visión binocular tiene lugar porque los dos ojos (separados unos centímetros) miran al mismo objeto desde ángulos ligeramente distintos, obteniendo como resultado dos imágenes muy parecidas, pero no iguales.




 Información monocular.


Cada vez que se observa una escena o un objeto empleando para ello un solo ojo, se obtiene una imagen plana, bidimensional. Es lo que se denomina visión monocular.
En esta imagen, al igual que cuando vemos un cuadro o una fotografía, existen una serie de factores que, de una forma intuitiva, aportan información sobre aspectos tridimensionales como distancia o profundidad.
Pueden diferenciarse tres tipos distintos de mecanismos que actúan a nivel de la visión monocular para proporcionar información tridimensional, estos son mecanismos geométricos, el movimiento de paralaje, y mecanismos relacionados con la musculatura ocular.

No hay comentarios:

Publicar un comentario