domingo, 14 de octubre de 2018


Historia 

El funcionamiento del siguiente dispositivo está basado en el efecto Edison. Edison fue el primero que observó en 1883 la emisión termoiónica, al colocar una lámina dentro de una bombilla para evitar el ennegrecimiento que producía en la ampolla de vidrio el filamento de carbón. Cuando se polarizaba positivamente la lámina metálica respecto al filamento, se producía una pequeña corriente entre el filamento y la lámina. Este hecho se producía porque los electrones de los átomos del filamento, al recibir una gran cantidad de energía en forma de calor, escapaban de la atracción del núcleo (emisión termoiónica) y, atravesando el espacio vacío dentro de la bombilla, eran atraídos por la polaridad positiva de la lámina.
El ingeniero británico Sir John Ambrose Fleming (1849-1945) aplicó el efecto Edison a un tubo para detectar las ondas hertzianas e inventó así el DIODO, primer tubo electrónico en el que se había hecho el vacío y en cuyo interior existía un ÁNODO (electrodo positivo) y un CÁTODO (electrodo negativo). El último, al alcanzar el estado de incandescencia, emitía electrones con carga negativa que eran atraídos por el ánodo; es decir, el diodo actuaba como una válvula que solo dejaba pasar la corriente en un sentido.
El otro gran paso lo dio Lee De Forest cuando inventó el triodo en 1906. Este dispositivo es básicamente como el diodo de vacío, pero se le añadió una rejilla de control situada entre el cátodo y la placa, con el objeto de modificar la nube electrónica del cátodo, variando así la corriente de placa. Este fue un paso muy importante para la fabricación de los primeros amplificadores de sonido, receptores de radio, televisores, etc.
Lee De Forest es considerado el "Padre de la electrónica", ya que antes del triodo, solo nos limitábamos a convertir la corriente alterna en corriente directa o continua, o sea, solo se construían las fuentes de alimentación, pero con la creación del triodo de vacío, vino la amplificación de todo tipo de señales, sobre todo la de audio, la radio, la TV y todo lo demás, esto hizo que la industria de estos equipos tuvieran un repunte tan grande que ya para las décadas superiores a 1930 se acuñara la palabra por primera vez de "electrónica" para referirse a la tecnología de estos equipos emergentes.
Conforme pasaba el tiempo, las válvulas de vacío se fueron perfeccionando y mejorando, apareciendo otros tipos, como los tetrodos (válvulas de cuatro electrodos), los pentodos(cinco electrodos), otras válvulas para aplicaciones de alta potencia, etc. Dentro de los perfeccionamientos de las válvulas se encontraba su miniaturización.
Pero fue definitivamente con el transistor, aparecido de la mano de Bardeen y Brattain, de la Bell Telephone Company, en 1948, cuando se permitió aún una mayor miniaturización de aparatos tales como las radios. El transistor de unión apareció algo más tarde, en 1949. Este es el dispositivo utilizado actualmente para la mayoría de las aplicaciones de la electrónica. Sus ventajas respecto a las válvulas son entre otras: menor tamaño y fragilidad, mayor rendimiento energético, menores tensiones de alimentación, etc. El transistor no funciona en vacío como las válvulas, sino en un estado sólido semiconductor (silicio), razón por la que no necesita centenares de voltios de tensión para funcionar.
A pesar de la expansión de los semiconductores, todavía se siguen utilizando las válvulas en pequeños círculos audiofilos, porque constituyen uno de sus mitos​ más extendidos.
El transistor tiene tres terminales (el emisor, la base y el colector) y se asemeja a un triodo: la base sería la rejilla de control, el emisor el cátodo, y el colector la placa. Polarizando adecuadamente estos tres terminales se consigue controlar una gran corriente de colector a partir de una pequeña corriente de base.
En 1958 se desarrolló el primer circuito integrado, que alojaba seis transistores en un único chip. En 1970 se desarrolló el primer microprocesador Intel 4004. En la actualidad, los campos de desarrollo de la electrónica son tan vastos que se ha dividido en varias disciplinas especializadas. La mayor división es la que distingue la electrónica analógica de la electrónica digital.
La electrónica es, por tanto, una de las ramas de la ingeniería con mayor proyección en el futuro, junto con la informática.


INTRODUCCIÓN DE LA ELECTRÓNICA
La electrónica es la rama de la física y especialización de la ingenieria, que estudia y emplea sistemas cuyo funcionamiento se basa en la conducción y el control del flujo de los electrones u otras partículas cargadas eléctricamente.

Utiliza una gran variedad de conocimientos, materiales y dispositivos, desde los semiconductores hasta las válvulas termoionicas. El diseño y la gran construcción de circuitos electrónicos para resolver problemas prácticos forman parte de la electrónica y de los campos de la ingeniería electrónica , electromecánica y la informática en el diseño de sofware para su control. El estudio de nuevos dispositivos semiconductores y su tecnología se suele considerar una rama de la física, más concreta mente en la rama de ingeniería de materiales.


Señales eléctricas 
Es la representación de un fenómeno físico o estado material a través de una relación establecida; las entradas y salidas de un sistema electrónico serán señales variables entre sí.
En electrónica se trabaja con variables que toman la forma de tensión o corriente estas se pueden denominar señales. Las señales primordial mente pueden ser de dos tipos:
·         Variable analógica–Son aquellas que pueden tomar un número infinito de valores comprendidos entre dos límites. La mayoría de los fenómenos de la vida real dan señales de este tipo (presión, temperatura, etc.).

·         Variable digital– También llamadas variables discretas, entendiéndose por estas, las variables que pueden tomar un número finito de valores. Por ser de fácil realización los componentes físicos con dos estados diferenciados, es este el número de valores utilizado para dichas variables, que por lo tanto son binarias. Siendo estas variables más fáciles de tratar (en lógica serían los valores V y F) son los que generalmente se utilizan para relacionar varias variables entre sí y con sus estados anteriores.

Corriente monofasica


Se denomina corriente monofásica a la que se obtiene de tomar una fase de la corriente trifásica y un cable neutro. En España y demás países que utilizan valores similares para la generación y trasmisión de energía eléctrica, este tipo de corriente facilita una tensión de 230 voltios, lo que la hace apropiada para que puedan funcionar adecuadamente la mayoría de electrodomésticos y luminarias que hay en las viviendas.
Desde el centro de transformación más cercano hasta las viviendas se disponen cuatro hilos: un neutro (N) y tres fases (R, S y T). Si la tensión entre dos fases cualesquiera (tensión de línea) es de 400 voltios, entre una fase y el neutro es de 230 voltios. En cada vivienda entra el neutro y una de las fases, conectándose varias viviendas a cada una de las fases y al neutro; esto se llama corriente monofásica. Si en una vivienda hay instalados aparatos de potencia eléctrica alta (aire acondicionado, motores, etc., o si es un taller o una empresa industrial) habitualmente se les suministra directamente corriente trifásica que ofrece una tensión de 400 voltios.
Voltaje en un sistema de corriente monofásico.



Corriente alterna 
Se denomina corriente alterna (simbolizada CA en español y AC en inglés, de alternating current) a la corriente eléctrica en la que la magnitud y dirección varían cíclicamente. La forma de onda de la corriente alterna más comúnmente utilizada es la de una onda senoidal.5​ En el uso coloquial, «corriente alterna» se refiere a la forma en la cual la electricidad llega a los hogares y a las empresas.
El sistema usado hoy en día fue ideado fundamentalmente por Nikola Tesla, y la distribución de la corriente alterna fue comercializada por George Westinghouse. Otros que contribuyeron al desarrollo y mejora de este sistema fueron Lucien Gaulard, John Gibbs y Oliver B. Shallenberger entre los años 1881 y 1889. La corriente alterna superó las limitaciones que aparecían al emplear la corriente continua (CC), la cual constituye un sistema ineficiente para la distribución de energía a gran escala debido a problemas en la transmisión de potencia.
La razón del amplio uso de la corriente alterna, que minimiza los problemas de trasmisión de potencia, viene determinada por su facilidad de transformación, cualidad de la que carece la corriente continua.6​ La energía eléctrica trasmitida viene dada por el producto de la tensión, la intensidad y el tiempo. Dado que la sección de los conductores de las líneas de transporte de energía eléctrica depende de la intensidad, se puede, mediante un transformador, modificar el voltaje hasta altos valores (alta tensión), disminuyendo en igual proporción la intensidad de corriente. Esto permite que los conductores sean de menor sección y, por tanto, de menor costo; además, minimiza las pérdidas por efecto Joule, que dependen del cuadrado de la intensidad. Una vez en el punto de consumo o en sus cercanías, el voltaje puede ser de nuevo reducido para permitir su uso industrial o doméstico de forma cómoda y segura.
Las frecuencias empleadas en las redes de distribución son 50 y 60 Hz. El valor depende del país.
Onda senoidal 


Voltaje de las fases de un sistema trifásico. Entre cada una de las fases hay un desfase de 120º.

Corriente continua 


La corriente continua (abreviada CC en español,​ así como CD por influencia del inglés DC, de direct current) se refiere al flujo continuo de carga eléctrica a través de un conductor entre dos puntos de distinto potencial y carga eléctrica, que no cambia de sentido con el tiempo.​ A diferencia de la corriente alterna, en la corriente continua las cargas eléctricas circulan siempre en la misma dirección. Aunque comúnmente se identifica la corriente continua con una corriente constante, es continua toda corriente que mantenga siempre la misma polaridad, así disminuya su intensidad conforme se va consumiendo la carga (por ejemplo cuando se descarga una batería eléctrica).
También se dice corriente continua cuando los electrones se mueven siempre en el mismo sentido, el flujo se denomina corriente continua y va (por convenio) del polo positivo al negativo.


Representación de la tensión en la corriente continua 
Conversión de corriente alterna en continua 
Muchos aparatos necesitan corriente continua para funcionar, sobre todos los que llevan electrónica (equipos audiovisuales, ordenadores, etc). Para ello se utilizan fuentes de alimentación que rectifican y convierten la tensión a una adecuada.
Este proceso de rectificación se realiza mediante dispositivos llamados rectificadores, antiguamente basados en el empleo de tubos de vacío y actualmente, de forma casi general incluso en usos de alta potencia, mediante diodos semiconductores o tiristores.

Polaridad 
Generalmente los aparatos de corriente continua no suelen incorporar protecciones frente a un eventual cambio de polaridad, lo que puede acarrear daños irreversibles en el aparato. Para evitarlo, y dado que la causa del problema es la colocación inadecuada de las baterías, es común que los aparatos incorporen un diagrama que muestre cómo deben colocarse; así mismo, los contactos se distinguen empleándose convencionalmente un muelle metálico para el polo negativo y una placa para el polo positivo. En los aparatos con baterías recargables, el transformador - rectificador tiene una salida tal que la conexión con el aparato sólo puede hacerse de una manera, impidiendo así la inversión de la polaridad. En la norma sistemática europea el color negro corresponde al negativo y el rojo al positivo.
En los casos de instalaciones de gran envergadura, por ejemplo, centrales telefónicas y otros equipos de telecomunicación, donde existe una distribución centralizada de corriente continua para toda la sala de equipos se emplean elementos de conexión y protección adecuados para evitar la conexión errónea de polaridad.



Corriente eléctrica 


Históricamente, la corriente eléctrica se definió como un flujo de cargas positivas y se fijó el sentido convencional de circulación de la corriente, como un flujo de cargas desde el polo positivo al negativo. Sin embargo posteriormente se observó, gracias al efecto Hall, que en los metales los portadores de carga son negativos, electrones, los cuales fluyen en sentido contrario al convencional. En conclusión, el sentido convencional y el real son ciertos en tanto que los electrones como protones fluyen desde el polo negativo hasta llegar al positivo (sentido real), cosa que no contradice que dicho movimiento se inicia al lado del polo positivo donde el primer electrón se ve atraído por dicho polo creando un hueco para ser cubierto por otro electrón del siguiente átomo y así sucesivamente hasta llegar al polo negativo (sentido convencional). Es decir la corriente eléctrica es el paso de electrones desde el polo negativo al positivo comenzando dicha progresión en el polo positivo.
En el siglo XVIII cuando se hicieron los primeros experimentos con electricidad, solo se disponía de carga eléctrica generada por frotamiento (electricidad estática) o por inducción. Se logró (por primera vez, en 1800) tener un movimiento constante de carga cuando el físico italiano Alessandro Volta inventó la primera pila eléctrica.


La corriente eléctrica es el flujo de carga eléctrica que recorre un material.​ Se debe al movimiento de las cargas (normalmente electrones) en el interior del mismo. Al caudal de corriente (cantidad de carga por unidad de tiempo) se lo denomina intensidad de corriente eléctrica. En el Sistema Internacional de Unidades se expresa en C/s (culombios sobre segundo), unidad que se denomina amperio (A). Una corriente eléctrica, puesto que se trata de un movimiento de cargas, produce un campo magnético, un fenómeno que puede aprovecharse en el electroimán.
El instrumento usado para medir la intensidad de la corriente eléctrica es el galvanómetro que, calibrado en amperios, se llama amperímetro, colocado en serie con el conductor por el que circula la corriente que se desea medir.




Diagrama del efecto Hall, mostrando el flujo de electrones. (en vez de la corriente convencional).
Leyenda:
1. Electrones
2. 
Sensor o sonda Hall
3. 
Imanes
4. 
Campo magnético
5. Fuente de energía
Descripción
En la imagen A, una carga negativa aparece en el borde superior del sensor Hall (simbolizada con el color azul), y una positiva en el borde inferior (color rojo). En B y C, el campo eléctrico o el magnético están invertidos, causando que la polaridad se invierta. Invertir tanto la corriente como el campo magnético (imagen D) causa que la sonda asuma de nuevo una carga negativa en la esquina superior.

Historia   El funcionamiento del siguiente dispositivo está basado en el efecto Edison. Edison fue el primero que observó en 1883 la e...