L.M.I.L., una fuente te ofrece un voltaje y un amperaje de salida. El dispositivo que necesitas hacer funcionar requiere de un voltaje de alimentación (Voltios) y tiene un consumo de corriente (Amperios) determinados.
Si tienes un ordenador portátil que en sus especificaciones dice que funciona con 20 Voltios y 3 Amperios, necesitarás una fuente que proporcione como mínimo esos valores.
Si alimentas el ordenador con una fuente de 20 V y 2 A lo que pasa es que, al consumir el ordenador más de los 2 A, se producirá una caida de tensión y ya no tenemos 20 V en la fuente, sino que tendremos menos voltaje de alimentación. Y eso no es bueno ni para el ordenador ni para la fuente...
Podrías alimentar al ordenador del ejemplo con una fuente que ofrezca 20 Voltios y 5 Amperios de salida. El ordenador sólo tomará sus 3 Amperios que necesita.
No es recomendable, pero tambien podrías ponerle una fuente de un poco más o un poco menos de tensión, siempre que el amperaje ofrecido sea "generoso".
Date cuenta que se trata de una proporción, la ley de Ohm: La resistencia (el aparato a alimentar) es igual a la tensión (Voltios) dividido por el consumo (Amperios):
R= V/ICómo puedes ver, si la resistencia es la misma siempre (por ej. el ordenador) si disminuye el voltaje, entonces la intensidad debe de subir.
Un cortocircuito implica una subida instantánea de consumo (amperes) y una brutal caida de tensión (voltios a cero), que es lo que termina pasando con el mal ejemplo del led tal y como te aclara el colega
Bundor:
Eso no se cumple, un led que funcione a 1.5v petará. Se necesita una resistencia para que el voltaje disminuya. La pila entregará siempre 4.5 voltios e irá disminuyendo su voltaje a medida en que su carga no pueda suministrarlos.
Sobre lo que pregunta LMIL... la fuente es capaz de suministrar 200ma, pero a mayor tensión menor intensidad.
Hay varios metodos para conseguirlo, uno es por regulación de pulsos (pwm) y otro por transformador.
Espero te sirva la info y pilles el "conceto".
Saludos.