martes, 25 de abril de 2017

CRITERIOS BLOQUES 7 Y 8


7.1. Analiza el proceso de captación del oído humano y la percepción de las frecuencias audibles
 

Proceso de captación del sonido

1. El sonido se canaliza en el conducto auditivo y provoca el movimiento del tímpano. 

2. Las vibraciones del sonido se desplazan por la cadena de huesecillos hasta la cóclea.  
3. Las vibraciones del sonido hacen que el fluido de la cóclea se mueva.  
4. El movimiento de este fluido hace que las células ciliadas se inclinen. Las células ciliadas producen señales neurales que son captadas por el nervio auditivo. Las células ciliadas de un extremo de la cóclea envían información de los sonidos graves, y las células ciliadas del otro extremo envían información de los sonidos agudos.   
5. El nervio auditivo envía las señales al cerebro, donde se interpretan como sonidos.

La percepción auditiva se da en cinco fases:
1. El tímpano vibra con el sonido.
2. Detección.
3. Discriminación.
4. Identificación.
5. Reconocimiento.
6. Comprensión.
 

7.2. Identifica los hitos más importantes producidos en la evolución histórica del registro sonoro.

La primera invención conocida de un dispositivo capaz de grabar sonido fue el fonoautógrafo, inventadó por el francés Leon Scott en 1857. Este podía transcribir sonido a un medio visible, pero no tenía un modo de ser reproducido después.
El fonógrafo inventado por Edison, el se baso en los principios del fonoautógrafo para hacer posible la grabación y reproducción del sonido.
El disco de vinilo apareció en 1888 junto al gramófono. Es un formato de reproducción de sonido basado en la grabación mecánica analógica. Se ha generalizado la nomenclatura disco de vinilo o solo vinilo porque los grupos polivinílicos eran el material habitual para su fabricación.Su principal inconveniente era que solo duraban cinco o seis reproducciones.
El gramófono de Berliner fue inventadó o patentado en 1888, consta de un plato giratorio, un brazo, una aguja o púa y un amplificador o bocina, y un motor a cuerda el cual giraba a 78 o 80 RPM.
El tocadiscos apareció por primera vez en 1925.Aparato que sirve para reproducir sonidos grabados en un disco; consiste en un plato plano, que gira a una velocidad constante sobre un eje, y un brazo con una aguja fina en su extremo; el disco se coloca sobre el plato giratorio y funciona al ponerse la aguja en contacto con el disco; el sonido se oye gracias a un mecanismo que lo amplifica.
El magnetofón de alambre fue el resultado del experimento con el telegráfono, una idea principalmente de Oberlin Smith. Aparato para grabar y reproducir sonidos por medio de una cinta magnética.
El casete fue creado con el objetivo de reducir el tamaño tanto de las cintas como de los magnetofones. Sin embargo, esto provocó menor calidad de sonido.
El MP3 es una aparato electrónico que sirve para reproducir archivos digitales con este formato de compresión.


7.3. Reconoce las aportaciones tecnológicas y expresivas que el sonido aportó en el proceso de transformación del cine mudo al cine sonoro.
 

Anteriormente al cine sonoro ya existía el sonido en el cine. Los cineastas y proyectistas se habían preocupado de ello, pues el cine nace con voluntad sonora. En las primeras filmaciones cortas en que aparecen actores y actrices bailando, el espectador no oye la música, pero puede observar sus movimientos. Por otra parte, rara vez se exhibían las películas en silencio. Los hermanos Lumiére, en 1897, contrataron un cuarteto de saxofones para que acompañase a sus sesiones de cinematógrafo en su local de París y hubo compositores de valía, como Saint-Saéns que compusieron partituras para acompañar la proyección de una película. Músicos y compositores tenían en el negocio del cine mudo una fuente de ingresos. No sólo la música, también los ruidos y acompañamiento tenían cabida en el cine mudo, por lo que algunos exhibidores disponían de máquinas especiales para producir sonidos, tempestades o trinar de pájaros. Cierto es que este sistema era solamente posible en grandes salas, en ciudades o lugares de público pudiente, y escasamente podía apreciarse en pueblos o lugares alejados. Todos los instrumentos eran válidos para hacer música en el cinematógrafo aunque el piano (y la pianola) era normalmente el más apetecido.
Algunos experimentos habían demostrado que las ondas sonoras se podían convertir en impulsos eléctricos. En el momento en que se logró grabar en el celuloide esta pista sonora, se hizo posible ajustar el sonido a la imagen, y por lo tanto hacer sonoro el cine.
Thomas Alva Edison, uno de los inventores del cinematógrafo, había conseguido grabar la voz humana en su fonógrafo en el año 1877. No fue el primero, ya que Muybridge gravó la progresión del galope de un caballo en 1972. Estos dos precursores sientan las bases de los inventos posteriores. En el caso del cine, el problema que no se conseguirá solucionar de manera rentable y eficaz hasta después de la Primera Guerra Mundial será la sincronización de sonido e imagen.
 

7.4. Reconoce los sistemas de captación y registro sonoro empleados en la producción de audiovisuales y radio.
 

El equipo para el registro digital deberá recoger la señal auditiva de manera analógica y convertirla (codificarla) a un formato digital. Para ello tomará "muestras" de ese sonido continuo y lo convertirá en datos de cada fragmento de segundo que utilice. Pueden ser tomas de varios miles de cortes por segundo (28.000, 46.000) y con esos datos, empleará un registro en disco duro o placa que usaremos para la edición.
Una vez tengamos ese audio digital (que en el caso de la televisión, también tendrá imagen), crearemos
una señal que emitir. Se empleará cable o antena de manera indistinta, porque los reproductores de estas señales que tengan los espectadores u oyentes contarán con un decodificador de señal con el que convertir de nuevo la imagen y/o el sonido en analógico para ser reproducido en radio o televisión.


7.5. Identifica las prestaciones técnicas de los diversos micrófonos y accesorios necesarios en proyectos audiovisuales y de espectáculos.


 

1 Sensibilidad
Es la especificación técnica que refleja la eficiencia del micrófono en cuestión. La sensibilidad es el voltaje que proporciona el micrófono a su salida en función de la presión acústica que incide en su membrana (relación voltaje/presión)
 

2 Respuesta en frecuencia
Esta característica es de las más importantes ya que representa la fidelidad del micrófono. La respuesta en frecuencia es la sensibilidad que tiene el micrófono en función de la frecuencia de la señal acústica.
 

4 Impedancia de salida
Circuito equivalente. Al conectar un micrófono a tu tarjeta de sonido, éste pasa a ser un componente más de su circuito eléctrico. La impedancia es la resistencia del micrófono frente al circuito eléctrico de la tarjeta.
 

5 Ruido equivalente
Nivel mínimo a partir del cual empieza a trabajar el micrófono. El ruido equivalente es el ruido de fondo que genera el micrófono a su salida cuando no hay señal útil.
 

6 Nivel SPL máximo
Nivel máximo de presión acústica que soporta el micrófono a partir del cual crea distorsión.
 

7 Margen dinámico
Margen de nivel acústico en el que el micrófono responde de manera óptima. Por encima del ruido equivalente y sin generar distorsión.
 

8 Respuesta impulsional
Capacidad del micrófono de responder a señales transitorias. Este valor depende de la inercia que tenga la membrana del micrófono. Afecta a la calidad de la captación en instrumentos con mucho ataque como por ejemplo la percusión.
Un cable para audio se compone siempre de dos conductores.
Uno de ellos se conoce como vivo y el otro como masa o tierra.
Es la unión de dos cables simples pero, en realidad, tendremos 4 conductores, ya que cada cable simple tiene su vivo y su masa. Sirve para conexiones estéreo. Usamos un cable para la señal del canal derecho (rojo) y el otro para el izquierdo (blanco).
Cable doble usado para conectar equipos estéreo.
Hay cables que vienen en la misma funda y traen dos vivos que comparten una sola masa o tierra.
Se podría usar también para un cable estéreo, dividiendo la masa para ambas señales, pero su principal uso será para conexiones balanceadas.
Su misión es llevar las señales de alta frecuencia desde el transmisor a la antena.
Los hay de varios tamaños y grosores dependiendo de la potencia que manejemos.
 

7.6. Describe las prestaciones de líneas de audio con diferentes tipos de cables y conectores, en función de los requisitos de micrófonos, equipos reproductores, equipos informáticos, y equipos de grabación y registro de audio que se van a emplear en proyectos audiovisuales.
 

TIPOS DE CABLES
 

1. Cable simple
El vivo es el que lleva la señal, podría decirse que es el positivo.
Y la masa sirve como punto cero o negativo. La tierra tiene, además, otra función que es servir de apantallamiento para los ruidos, no permitiendo que lleguen al vivo.
Este sería un cable simple de audio que nos sirve para llevar una señal mono.
Cables para altavoces
También usamos este cable simple para la conexión de altavoces en equipos de sonido, aunque son más gruesos para impedir pérdidas de señal. Suelen ir identificados con diferentes colores, negro y rojo, generalmente.
 

2. Cable doble de audio

 Cables de micrófono balanceado:
 

3.Cable coaxial
No se usa para audio de baja frecuencia, es decir, para conectar equipos como el CD, la computadora.
Los coaxiales son muy usados para conectar antenas de TV y servicios de televisión por cable. Pero recuerda que el coaxial de video tiene una impedancia de 75 Ω, mientras que el de audio es de 50Ω.


TIPOS DE CONECTORES

Al igual que las especies animales, los conectores también están divididos por sexo.
Los hay machos y hembras. Y es muy fácil distinguirlos. Los que veas que tienen un pin o punta saliente son machos. Los conectores hembra tienen un hueco donde insertar los machos.
Además de por su “sexo”, podemos clasificar a los conectores como:
Aéreos: Son la mayoría. No están fijos en ningún equipo, sino que “vuelan” junto al cable.
Chasis: Sirven para adosar en un equipo de audio. Los encontramos anclados a la consola o a la salida de los micrófonos.
 

7.7. Analiza las especificaciones técnicas y las cualidades operativas de diversas configuraciones de equipamiento de audio en grabaciones en estudio de música, doblaje y efectos sonoros.

Especificaciones técnicas del equipamiento de audio:

Nivel de ruido
Se refiere al ruido generado por el equipo sin contemplar el nivel de la señal.
Distorsión armónica
Se le llama distorsión a toda señal que aparece a la salida de un dispositivo y no estaba en la entrada.
La distorsión armónica, son frecuencias múltiplos de la fundamental que no estaban en la señal original. Se mide en porcentual y en relación a determinada amplitud. Ej. 0,03 % THD a 10dBu.

Rango Dinámico

Es la relación entre el mínimo y máximo nivel posible. Estos extremos están generados por el nivel de ruido en los mínimos y la distorsión en los máximos, por lo que el rango dinámico de un equipo estará delimitado por el ruido que genera y la capacidad de manejar altos niveles antes de la distorsión. Ej. RD. 96 dB.
Sensibilidad
Es la capacidad que tiene un dispositivo en transformar la energía. Por ejemplo si ingresamos en dos dispositivos la misma señal el más sensible entregara más nivel en la salida con respecto al menos sensible
En las especificaciones técnicas figura como, el valor de presión sonora o tensión necesaria para producir un determinado valor de presión o tensión en la salida.
En el caso de micrófonos es un valor de presión para llegar a un valor de tensión.
En potencias es un valor de tensión en la entrada para llegar a uno de tensión en la salida.
En parlantes es un valor de tensión en la entrada para llegar a una presión en la salida.

Respuesta en Frecuencia
Es la capacidad que tiene un dispositivo para transformar la energía a diferentes frecuencias. Idealmente deberían ser igual de eficientes a cualquier frecuencia, pero la realidad nos muestra que micrófonos, parlantes, preamplificadotes y demás dispositivos pierden rendimiento en bajas y altas frecuencias.
La figura muestra un típico grafico de respuesta en frecuencia (frecuencias y amplitud)

8.1. Identifica  las  prestaciones  del  equipamiento informático en  proyectos multimedia
En informática, como ya sabemos, existen dos ramas básicas respecto a prestaciones: hardware y software. Cada aparato electrónico cuenta con estas dos partes. Hardware son los componentes físicos, que podemos ver y tocar, el software viene implantado en éstos componentes, y son los programas que hacen que los aparatos funciones, nos proporcionan la interfaz y las herramientas necesarias para su correcto uso.

Prácticamente cualquier aparato electrónico es capaz de crear o editar contenido multimedia (cámaras de fotos, ordenadores, smartphones, tablets... ), puesto que ya dedicamos un tema a hablar del funcionamiento de estos dispositivos, pasaremos directamente a las prestaciones específicas para trabajar contenido multimedia.

Para crear contenido multimedia es necesario tener una cámara de vídeo, o bien un software capaz de crear animaciones o imágenes, como Blender o Photoshop. Cuando creamos animaciones, debemos tener en cuenta las prestaciones del dispositivo en el que estamos trabajando (en caso de que sea un PC, su procesador, memoria gráfica etc. ). Pero a la hora de grabar en vídeo debemos tener en cuenta otros aspectos:
Calidad de vídeo (imagen y resolución)
Tasa de bits (bitrate)
Formatos de vídeo
Proceso de edición


8.2. Reconoce las prestaciones técnicas y operativas de las aplicaciones de tratamiento de imágenes, animación 2D, edición de vídeo y autoría.

Cuando hablamos de programas de tratamiento de imágenes, Photoshop es la aplicación estrella. Es utilizada para editar imágenes estáticas, hacer montajes etc. Puede parecer sencilla de usar, pero tiene cientos de herramientas más que útiles para diseñadores expertos.

A parte de Photoshop, contamos con numerables herramientas de edición más accesibles, pero quizás menos profesionales, como Gimp, Picasa etc.

En cuanto a programas de edición, también disponemos de una variedad de aplicaciones como Sony Vegas, Adobe Premiere etc. Estas herramientas son de más difícil acceso, ya que ofrecen herramientas más profesionales y precisas. La capacidad de estos programas para editar vídeo a grandes resoluciones depende de las especificaciones del dispositivo que los esté ejecutando. Cuando se necesita procesar un vídeo de gran resolución, es necesario disponer de gran cantidad de memoria gráfica, RAM y un buen procesador.

Los programas de animación en 2D y 3D comparten algunas características con los software de edición de imágenes o vídeo, algunos programas, como Blender, que nos permite crear animaciones tanto en 3D como en 2D, y es un software gratuito. Otros programas como Adobe Animate CC(Antiguamente Flash) son de pago, pero ofrecen herramientas más sofisticadas y requieren un conocimiento más amplio a la hora de animar.
La animación por computadora (también llamada animación digital, animación informática o animación por ordenador) es la técnica que consiste en crear imágenes en movimiento mediante el uso de una computadora. Para crear la ilusión del movimiento, una imagen se muestra en pantalla sustituyéndose rápidamente por una nueva imagen, estas imágenes se llaman fotogramas. Esta técnica es idéntica a la manera en que se logra la ilusión de movimiento en las películas y en la televisión. En la mayor parte de los métodos de animación por ordenador, un animador crea una representación simplificada de la anatomía de un personaje, pues tiene menos dificultad para ser animada. En personajes bípedos o cuadrúpedos, muchas partes del esqueleto del personaje corresponden a los huesos reales. La animación con huesos también se utiliza para animar otras muchas cosas, tales como expresiones faciales, un coche u otro objeto que se quiera dotar de movimiento.


8.3. Justifica la utilización de determinados formatos de archivo de imagen, audio y vídeo para cámaras fotográficas, escáneres, micrófonos, líneas de audio y reproductores de vídeo, adecuados a los proyectos multimedia.

Formatos de vídeo:

AVI (Audio Video Interleaved = Audio y Vídeo Intercalado)
 

Es el formato estándar para almacenar vídeo digital.
Cuando se captura vídeo desde una cámara digital al ordenador, se suele almacenar en este formato con el códec DV (Digital Vídeo).
El archivo AVI puede contener video con una calidad excelente. Sin embargo el peso del archivo resulta siempre muy elevado.
Admite distintos códecs de compresión como CinePak, Intel Indeo 5, DV, etc. Los códecs con más capacidad de compresión y una calidad aceptable son DivX y XviD.
El formato AVI puede ser visualizado con la mayoría de reproductores: Windows Media, QuickTime, etc. siempre y cuando se encuentren instalados en el equipo los adecuados códecs para cada tipo de reproductor.
Es ideal para guardar videos originales que han sido capturados de la cámara digital (codificados con DV).
No es recomendable publicarlos en Internet en este formato por su enorme peso.
Los códecs CinePak, Intel Indeo, DV, etc. no ofrecen una gran compresión. Los códecs DivX y XviD por el contrario consiguen una óptima compresión aunque se suelen destinar sobre todo a la codificación de películas de larga duración.
 

MPEG (Moving Pictures Expert Group = Grupo de Expertos de Películas)
 

Es un formato estándar para la compresión de vídeo digital.
Son archivos de extensión *.MPG ó *.MPEG.
Admite distintos tipos de códecs de compresión: MPEG-1 (calidad CD), MPEG-2 (calidad DVD), MPEG-3 (orientado al audio MP3) y MPEG-4 (más orientado a la web).
Se reproducen con Windows Media Player y QuickTime.
 

MOV
 

Es el formato de video y audio desarrollado por Apple.
Utiliza un códec propio que evoluciona en versiones con bastante rapidez.
Este tipo de archivos también pueden tener extensión *.QT
Se recomienda utilizar el reproductor de QuickTime. Existe una versión gratuita del mismo que se puede descargar de Internet.
Es ideal para publicar videos en Internet por su razonable calidad/peso.
Admite streaming.
 

WMV
 

Ha sido desarrollado recientemente por Microsoft.
Utiliza el códec MPEG-4 para la compresión de video.
También puede tener extensión *.ASF
Sólo se puede visualizar con una versión actualizada de Windows Media 7 o superior. Esta aplicación viene integrada dentro de Windows.
Es ideal para publicar videos en Internet por razonable calidad/peso.
Admite streaming.
 

RM
 

Es la propuesta de Real Networks para archivos de video.
Utiliza un códec propio para comprimir el audio.
Este tipo de archivos tiene extensión *.RM y *.RAM.
Se visualiza con un reproductor específico: Real Player. Existe una versión gratuita del mismo que se puede descargar de Internet.
Se puede utilizar para publicar videos en Internet por su aceptable calidad/peso.
Admite streaming.
 

FLV
 

Es un formato que utiliza el reproductor Adobe Flash para visualizar vídeo en Internet.
Utiliza el códec Sorenson Spark y el códec On2 VP6. Ambos permiten una alta calidad visual con bitrates reducidos.
Son archivos de extensión *.FLV.
Se pueden reproducir desde distintos reproductores locales: MPlayer, VLC media player, Riva, Xine, etc.
Opción recomendada para la web por su accesibilidad. Al visualizarse a través del reproductor de Flash es accesible desde la mayoría de los sistemas operativos y navegadores web.
Los repositorios de vídeo más conocidos en Internet utilizan este formato para la difusión de vídeos: YouTube, Google Video, iFilm, etc.
Permite configurar distintos parámetros del vídeo para conseguir una aceptable calidad/peso.
Admite streaming.
Formatos de audio:

Formato WAV
 

El formato WAV (WaveForm Audio File) es un archivo que desarrolló originalmente Microsoft para guardar audio. Los archivos tienen extensión *.wav
Es ideal para guardar audios originales a partir de los cuales se puede comprimir y guardar en distintos tamaños de muestreo para publicar en la web.
Es un formato de excelente calidad de audio.
Sin embargo produce archivos de un peso enorme. Una canción extraída de un CD (16 bytes, 44100 Hz y estéreo) puede ocupar entre 20 y 30 Mb.
Compresión: Los archivos WAV se pueden guardar con distintos tipos de compresión. Las más utilizadas son la compresión PCM y la compresión ADPCM. No obstante incluso definiendo un sistema de compresión, con un audio de cierta duración se genera un archivo excesivamente pesado.
El formato WAV se suele utilizar para fragmentos muy cortos (no superiores a 3-4 segundos), normalmente en calidad mono y con una compresión Microsoft ADPCM 4 bits.  


Formato MP3
El formato MP3 (MPEG 1 Layer 3) fue creado por el Instituto Fraunhofer y por su extraordinario grado de compresión y alta calidad está prácticamente monopolizando el mundo del audio digital.
Es ideal para publicar audios en la web. Se puede escuchar desde la mayoría de reproductores.
La transformación de WAV a MP3 o la publicación directa de una grabación en formato MP3 es un proceso fácil y al alcance de los principales editores de audio.
Tiene un enorme nivel de compresión respecto al WAV. En igualdad del resto de condiciones reduciría el tamaño del archivo de un fragmento musical con un factor entre 1/10 y 1/12.
Presentan una mínima pérdida de calidad.
 

Formato OGG
 

El formato OGG ha sido desarrollado por la Fundación Xiph.org.
Es el formato más reciente y surgió como alternativa libre y de código abierto (a diferencia del formato MP3).
Muestra un grado de compresión similar al MP3 pero según los expertos en música la calidad de reproducción es ligeramente superior.
No todos los reproductores multimedia son capaces de leer por defecto este formato. En algunos casos es necesario instalar los códecs o filtros oportunos.
El formato OGG puede contener audio y vídeo.
 

Formato MIDI
 

El formato MIDI (Musical Instrument Digital Interface = Interface Digital para Instrumentos Digitales) en realidad no resulta de un proceso de digitalización de un sonido analógico. Un archivo de extensión *.mid almacena secuencias de dispositivos MIDI (sintetizadores) donde se recoge qué instrumento interviene, en qué forma lo hace y cuándo.
Este formato es interpretado por los principales reproductores del mercado: Windows Media Player, QuickTime, etc.
Los archivos MIDI se pueden editar y manipular mediante programas especiales y distintos de los empleados para editar formatos WAV, MP3, etc. El manejo de estos programas suele conllevar ciertos conocimientos musicales.
Los archivos MIDI permiten audios de cierta duración con un reducido peso. Esto es debido a que no guardan el sonido sino la información o partitura necesaria para que el ordenador la componga y reproduzca a través de la tarjeta de sonido.
Se suelen utilizar en sonidos de fondo de páginas HTML o para escuchar composiciones musicales de carácter instrumental.
El formato MIDI no permite la riqueza de matices sonoros que otros formatos ni la grabación a partir de eventos sonoros analógicos.
 

Formatos de imagen:


BMP (Bitmap = Mapa de bits)
Ha sido muy utilizado porque fue desarrollado para aplicaciones Windows.
La imagen se forma mediante una parrilla de píxeles.
El formato BMP no sufre pérdidas de calidad y por tanto resulta adecuado para guardar imágenes que se desean manipular posteriormente.
Ventaja: Guarda gran cantidad de información de la imagen.
Inconveniente: El archivo tiene un tamaño muy grande.
 

GIF (Graphics Interchange Format = Formato de Intercambio Gráfico)
 

Ha sido diseñado específicamente para comprimir imágenes digitales.
Reduce la paleta de colores a 256 colores como máximo (profundidad de color de 8 bits).
Admite gamas de menor número de colores y esto permite optimizar el tamaño del archivo que contiene la imagen.
Ventaja: Es un formato idóneo para publicar dibujos en la web.
Inconveniente: No es recomendable para fotografías de cierta calidad ni originales ya que el color real o verdadero utiliza una paleta de más de 256 colores.
 

JPG-JPEG (Joint Photographic Experts Group = Grupo de Expertos Fotográficos Unidos)
 

A diferencia del formato GIF, admite una paleta de hasta 16 millones de colores.
Es el formato más común junto con el GIF para publicar imágenes en la web.
La compresión JPEG puede suponer cierta pérdida de calidad en la imagen. En la mayoría de los casos esta pérdida se puede asumir porque permite reducir el tamaño del archivo y su visualización es aceptable. Es recomendable utilizar una calidad del 60-90 % del original.
Cada vez que se modifica y guarda un archivo JPEG, se puede perder algo de su calidad si se define cierto factor de compresión.
Las cámaras digitales suelen almacenar directamente las imágenes en formato JPEG con máxima calidad y sin compresión.
Ventaja: Es ideal para publicar fotografías en la web siempre y cuando se configuren adecuadamente dimensiones y compresión.
Inconveniente: Si se define un factor de compresión se pierde calidad. Por este motivo no es recomendable para archivar originales.
 

TIF-TIFF (Tagged Image File Format = Formato de Archivo de Imagen Etiquetada)
 

Almacena imágenes de una calidad excelente.
Utiliza cualquier profundidad de color de 1 a 32 bits.
Es el formato ideal para editar o imprimir una imagen.
Ventaja: Es ideal para archivar archivos originales.
Inconveniente: Produce archivos muy grandes.
 

PNG (Portable Network Graphic = Gráfico portable para la red)
 

Es un formato de reciente difusión alternativo al GIF.
Tiene una tasa de compresión superior al formato GIF (+10%)
Admite la posibilidad de emplear un número de colores superior a los 256 que impone el GIF.
Debido a su reciente aparición sólo es soportado en navegadores modernos como IE 4 o superior.

8.4. Valora las necesidades de usuarios con diferentes grados de accesibilidad y las exigencias técnicas de los diversos medios de explotación y las opciones de salida de las aplicaciones multimedia.


Para trabajar las aplicaciones multimedia, lógicamente debemos disponer de dispositivos capaces de ejecutar éstas aplicaciones, ya sean teléfonos móviles, ordenadores u otro cualquier aparato que nos capacite trabajar estas aplicaciones.
Desgraciadamente, debido a problemas sociales y económicos, no todos los alumnos pueden acceder a distintas facilidades a la hora de trabajar contenido multimedia, ya sea porque en sus hogares no disponen de los dispositivos necesarios para realizar las tareas relacionadas con esta materia; o porque en su centro de educación no pueden permitirse salas que dispongan de estos dispositivos, en este caso la accesibilidad es nula, y los alumnos ni si quiera pueden establecer un primer contacto con esta materia.

En cuanto a las opciones de salida, afortunadamente, el conocimiento multimedia cada vez está mas reconocido, tanto en el mundo laboral, en el que encontramos cada vez más profesiones relacionadas con esta materia: en medios de comunicación, como diseñador gráfico etc. A parte, internet cada vez ofrece más posibilidades a los creadores de contenido: YouTube, Twitch e incluso las redes sociales más famosas (Twitter, Facebook, Instagram) ayudan a los creadores que no encuentran un sitio en el mundo laboral a hacerse un nombre en este mundo.

9.1. Especifica el valor funcional, expresivo y comunicativo de los recursos sonoros empleados en la construcción de la banda sonora de una producción audiovisual o radiofónica.


Función Expresiva Del Sonido. Características Técnicas
Existe una corriente con numerosos seguidores que mantiene que, de una u otra forma, el sonido acompaña o enriquece a la imagen, partiendo de un concepto de estudio separado de ambos canales  de información (que es a la postre lo que son). El lenguaje audiovisual recibe este nombre porque ambos componentes trabajan al unísono para llevar la sensación, la información e incluso el placer al receptor, que lo recibe por ese doble canal, el oído y los ojos. Su riqueza, su magia, reside en esa dualidad.
La importancia del sonido como elemento narrativo es capital y no solo como complemento de la imagen. Sintetizando, podemos decir que actúa en tres líneas expresivas concretas:
-Comunica sensaciones y universos espaciales, creando perspectivas
-Crea y comunica la continuidad del relato.
-Matiza, intensificando o suavizando, el efecto narrativo de la imagen.
Con la calidad del sonido no hay términos medios: o es perfecta o es mala, y los fallos en la grabación no suelen tener remedio.
La perfecta comprensión de lo que se va a rodar y con qué intención facilita la elección del equipo necesario, que puede variar sustancialmente según aspectos concretos del rodaje y que han de ser previstos con la antelación suficiente.
Como en otras especialidades que concurren en la producción el sonido necesita una planificación, si bien, es muy difícil valorar todas las circunstancias acústicas  que van a intervenir en un rodaje, ya que muchas de ellas no aparecen hasta que se está desarrollando la acción.
En realidad, el estudio del sonido ha de realizarse desde dos puntos de vista: el puramente técnico y el de su vertiente narrativa. Como en el campo de la imagen, ambos deben ir de la mano y creer que uno es más importante que el otro nos conducirá al fracaso
1. Características técnicas del sonido y su función expresiva y adecuación a las producciones audiovisuales.
2. Características técnicas del sonido. El sonido es una variación de presión en el aire, una vibración que se propaga en un medio elástico en forma de ondas. Su velocidad es de 330 m/s. 2

3. La función expresiva del sonido: Aumentan la sensación de realidad de una imagen; transmite información; ayuda a crear ambientes.
4. Cualidades expresivas del sonido:
-TONO: Se refiere a lo agudo y lo grave del sonido.
-INTENSIDAD: Se refiere a lo fuerte o débil del sonido.
-TIMBRE: Identifica la fuente del sonido y su personalidad. Nos ayuda distinguir el sonido de las voces, de los instrumentos, etc.

-TEMPO: Se refiere a la velocidad de ejecución de la música o producción del sonido.
-RITMO: Proporción guardada entre el tiempo de un movimiento y el de otro diferente.
-ATAQUE: manera en que comienza el sonido.
-DECAIMIENTO: final del sonido: Brusco, pausado.
6. Sonido diegético y no diegético: Sonido cuya fuente está representada en el espacio de la imagen.
7. Los elementos sonoros de las obras audiovisuales. •Diálogo. Estos son: •El comentario en off. - 1. La voz humana •Monólo interior. •Función informativa (la letra de una canción, por ejemplo, puede explicar cosas). •Llamar la atención. - 2. La música •Dar ritmo a una imagen o sucesión de ellas. •Funciones expresivas (crea climas emocionales). •Función gramatical (sirve de transición entre secuencias, etc.).

8. Los efectos y •Llaman la atención ambientes sonoros •Aportan mayor realismo al contenido. •El silencio conocido como pausa o cuarta voz de la - 4. El silencio radio, está lleno de sentido siempre que se sepa emplear… intrigar, suscitar la reflexión o para dramatizar una información.

9.2. Diferencia las características estructurales, expresivas y funcionales de los géneros radiofónicos, a partir del análisis de las parrillas de programación de distintas emisoras de radio.

Los géneros radiofónicos podrían clasificarse de la siguiente manera:
· El reportaje
· La crónica
· La crítica
· El comentario
· El editorial
· La entrevista
· La tertulia
· El debate
· La cuña
· El deporte
· La telepolémica
- El reportaje es un género periodístico que consiste en la narración de hechos que pueden ser de actualidad o ser atemporales. En este género, se explica con palabras, imágenes, y desde una perspectiva actual, acontecimientos de interés público.
- Una crónica es una obra literaria que narra hechos históricos en orden cronológico. En una crónica los hechos se narran según el orden temporal en que ocurrieron, a menudo por testigos presenciales o contemporáneos, ya sea en primera o en tercera persona.
Se entiende por crónica la historia detallada de un país, de una localidad, de una época o de un hombre, o de un acontecimiento en general, escrita por un testigo ocular o por un contemporáneo que ha registrado sin comentarios todos los pormenores que ha visto, y aún todos los que le han sido transmitidos.
- Una crítica es la reacción o la opinión personal y/o analizada ante un tema, varias opiniones pueden formar a veces también una critica, siempre que sea de la misma tendencia.
La crítica es el arte de juzgar las cualidades (bondad, verdad, belleza...) de las cosas.
Hay tres tipos de crítica: positiva, negativa y constructiva.
- Un comentario es un escrito que sirve de explicación de una obra para que se entienda más fácilmente el sentido que encierra.
- Un editorial es un género periodístico, que consiste en un texto no firmado que explica, valora y juzga un hecho noticioso de especial importancia. Se trata de una opinión colectiva, de un juicio institucional formulado en concordancia con la línea ideológica del medio.
- Una tertulia es una reunión, informal y periódica, de gente interesada en un tema o en una rama concreta del arte o de la ciencia, para debatir, informarse o compartir ideas y opiniones. Por lo general la reunión tiene lugar en un café o cafetería, y suelen participar en ellas personas del ámbito intelectual. Es una costumbre de origen español y se mantuvo arraigada hasta mediados del siglo XX en las colonias independizadas del imperio español. A los asistentes se les llama contertulios o tertulianos.
- Debate: Es una técnica de comunicación oral donde se expone un tema y una problemática. Hay integrantes, un moderador, un secretario y un público que participa. No se aportan soluciones solo se exponen argumentos.
La condición de un debate se da en el distinto punto de vista que guardan dos o más posiciones antagónicas en torno a un tema o problema. Es un texto argumentativo en el que se entrelazan los argumentos que sostienen la tesis en conflicto.
Los argumentos se deben ir construyendo en estrecha relación conforme el oponente, así que el debate se trata de una argumentación de gran dificultad y rapidez mental.
- Cuña es una forma radiofónica en la que se transmite un mensaje sin presentarse a sí misma, sino que va integrada en otros formatos, al ser claro con su contenido.
Por ejemplo, un reportaje dentro de una crónica como ilustración de una mesa redonda o un spot publicitario tras una canción en una emisión radiofónica.
En principio no debe tener una duración mayor de los dos minutos y suele ser la forma más habitual para introducir la publicidad en un medio radiofónico.


9.3. Elabora mediante aplicaciones digitales la banda sonora de un producto audiovisual, dando respuesta a sus requisitos comunicativos.

Se refiere al proceso por medio del cual se elabora la banda sonora de un producto audiovisual, bien sea una película, un cortometraje, un teaser, un documental, una novela, un informativo, o cualquier otro tipo de producto que relacione imágenes con sonido. El término banda sonora suele confundirse con la música que acompaña a un producto audiovisual. Sin embargo, la banda sonora comprende todos los componentes sonoros del mismo (sonidos de ambientes, música, diálogos, efectos de sonido, etc.).
Como muestra de este estándar tenemos los cortometrajes con los diálogos y canciones que hemos usado.




sábado, 22 de abril de 2017

CONCEPTOS CÁMARA FOTOGRÁFICA

Objetivo

-Dispositivo que contiene el conjunto de lentes convergentes y divergentes y, en algunos casos, el sistema de enfoque que forman parte de la óptica de una cámara.

Su función es redireccionar los haces de luz para crear una imagen "óptica" en un soporte fotosensible, permitir un enfoque lo más preciso posible y mantener una colimación constante de los elementos ópticos. 
Diafragma
-Es un dispositivo que le provee al objetivo la capacidad de regular la cantidad de luz que entra a la cámara. Suele ser un disco o sistema de aletas dispuesto en el objetivo de una cámara, de forma tal que limita la cantidad luz que llega hacia el medio fotosensible en la cámara, generalmente de forma ajustable.

Obturador
-Es el dispositivo que controla el tiempo durante el que llega la luz al dispositivo fotosensible.


Precios y prestaciones de cámaras





  

Cámara digital Panasonic Lumix DMC-FZ72 de 16 MP





299





CONCEPTOS IMAGEN DIGITAL

Imagen digital 
-Es una representación bidimensional de una imagen a partir de una matriz numérica, frecuentemente en binario (unos y ceros). Dependiendo de si la resolución de la imagen es estática o dinámica, puede tratarse de una imagen matricial (o mapa de bits) o de un gráfico vectorial


Sensor de imagen

-Es el elemento de una cámara electrónica, tanto de vídeo como de fotografía estática, Que detecta y captura la información que compone la imagen. Esto se logra al convertir la atenuación de las ondas de luz (cuando estas atraviesan o son reflejadas por cuerpos) en señales eléctricas.



Píxel

-Abreviatura de "picture cell" o "picture element" (celdilla de imagen o elemento de imagen), es el punto más pequeño que puede ser representado, y como tal, la unidad de información de una imagen conformado por componentes de los tres colores básicos.


Resolución DPI y PPI

-La medida de la resolución de una imagen impresa viene dada por el número de píxeles que se muestran en una unidad de longitud, normalmente pulgadas. 
Se expresa como DPI, "Dots Per Inch", PPP (ppp) puntos por pulgada (dpi) o PPI, píxeles por pulgada (ppi). 
Las dimensiones en píxeles y la resolución de imagen mantienen una relación de dependencia, ya que si la resolución determina la cantidad de píxeles que contiene una imagen (y, por tanto, su nivel de detalle), la dimensión especifica cómo se reparten estos píxeles en el espacio.




Óptica de una cámara

-Se denomina al dispositivo que contiene el conjunto de lentes convergentes y divergentes y, en algunos casos, el sistema de enfoque y/o obturación.


Formación de la imagen digital

-La luz captada por el objetivo de una cámara digital, se proyecta sobre un detector o sensor sólido de imagen, llamado CCD, constituido por cientos de miles de receptores fotosensibles (fotodiodos). La luz incidente produce en cada receptor una débil señal eléctrica que es amplificada y convertida en información digital (ADC) como cadenas de dígitos binarios que se representan finalmente como teselas o cuadraditos de color individualizados llamados píxeles.




Profundidad de bits

-La profundidad de color o bits por pixel (bpp) es un concepto de la computación gráfica que se refiere a la cantidad de bits de información necesarios para representar el color de un píxel en una imagen digital o en un framebuffer.



Formatos de almacenamiento



Modos de color: RGB, CMYK, HSB

-Una imagen RGB tiene tres canales: rojo, verde y azul. Los canales RGB derivan u obedecen a los receptores de color del ojo humano, y se usan en monitores de ordenador y escáneres de imagen.

-Una imagen CMYK tiene cuatro canales: cian, magenta, amarillo y negro. CMYK es el estándar para imprimir,donde se utiliza la síntesis sustractiva de color.

-HSV almacena la información de color en tres canales, al igual que RGB, pero un canal está dedicado al brillo, y los otros dos transmiten la información de color. El canal  es exactamente el mismo que el canal Negro de CMYK o su negativo.
HSV es especialmente útil en compresión de vídeo con pérdida, donde la pérdida de información del color es menos perceptible al ojo humano.























miércoles, 12 de abril de 2017

TRABAJO LIBRE PHOTOSHOP(1)


IMAGEN ORIGINAL                                                             PHOTOSHOP



lunes, 10 de abril de 2017

TRABAJO LIBRE PHOTOSHOP(2)

                                                                  IMAGEN ORIGINAL



PHOTOSHOP


IMÁGENES UTILIZADAS