Mitos y cuentos de vieja sobre la tecnología
Publicado: Dom Ago 10, 2014 10:04 pm
Me estuve acordando cómo la aparición y masificación de alguna nueva tecnología causa que aparezca toda una mitología al respecto por parte de gente que no la entiende (y por ende debe ser producto del demonio), además de las típicas brechas generacionales (siempre hay algo nuevo que está destruyendo a la juventud), pero una vez que pasa el tiempo y se vuelve parte de la vida cotidiana, dichos cuentos de vieja mayormente desaparecen.
En particular me acuerdo de estos dos:
1: ¡Apaga el computador, que va a llegar la tremenda cuenta de luz!
Este fue uno de los que más me jodió a lo largo de mi adolescencia con todo tipo de personas, tenía amigos que no los dejaban usar el PC más de una hora diaria no por el rendimiento académico o conducta, sino por el consumo eléctrico. Me metí en un montón de discusiones y problemas porque es imposible que un niño que sabe leer una etiqueta y multiplicar pueda calcular el consumo de un electrodoméstico. Los niños no saben nada, y si un adulto dice que un PC consume 1.21 gigawatts, esa es la indiscutible verdad.
Recuerdo que mis compañeros me pedían que les desconectara los LEDs del gabinete del PC para que lo pudieran dejar descargando sin que los pillaran (uno pensaría que el ruido de los ventiladores los delataría, pero al parecer pasaba piola) o usaban el PC con un ventilador de mesa sobre el monitor para que sus padres no pudieran detectar el uso a través del calor residual. Por suerte a mi no me tocó nada de eso, en mi casa sabían que un computador personal no lleva capacitor de flujo.
En la práctica los tarros de esa época no eran muy eficientes, no habían tecnologías tipo SpeedStep o Cool 'n Quiet que redujeran la velocidad o voltaje del CPU en períodos de inactividad, las opciones de ahorro de energía venían desactivadas por defecto (o había que desactivarlas sino el PC se dormía si uno se ponía a ver un vídeo) y como aún se corría harto software de DOS o Win16 de manera nativa que usara loops críticos de timing, el uso de CPU era siempre alto. Aún así, incluso con esas fuentes de poder rascas de 200-250W con topología half-bridge bipolar, era raro que el consumo real del Olidata promedio superara los 100W a toda caña. Si se calculaba un uso de 8 horas diarias (harto en ese entonces) con el precio del kWh de la época el costo mensual con mucha suerte bordeaba la luca. De haber estado en los zapatos de mis compañeros que los jodían por eso yo feliz pagaba la luca mensual para que me dejaran usar el PC en paz.
Incluso medí el tarro que usé del 2003 al 2010, por el que en otro topic se me tiraron encima cuando comenté que lo dejaba encendido 24/7 descargando o haciendo de servidor, en aquella época donde un megabit era un lujo y la casilla de correo promedio era de 5 MB. Aún lo conservo en su última configuración (Athlon XP 2600+ / MSI KT4AV / 1.5 GB DDR400 / Geforce 6600 AGP 256MB / 2x 80GB ATA133 / fuente 350W y muchos ventiladores con luces) que es bastante cerda energéticamente hablando, y aún así con todo en modo alto rendimiento y bajo una situación típica de uso el consumo fue de 112W. En la práctica esto se podía mejorar mucho con simples tweaks y políticas de ahorro de energía. La cosa es que aún si me hubiera dedicado a jugar UT un mes de corrido sin descanso alguno la cuenta habría subido unas 3 lucas como mucho.
Hoy en día la luz ha subido bastante y esas cifras ya no se verían tan triviales calculadas al kWh de hoy, sin embargo tenemos de nuestro lado que los avances en procesos de semiconductores han logrado que los equipos modernos hagan mucho más y consuman mucho menos, hay un fuerte énfasis de ahorro energético por parte de hardware y software, y gracias a la multitud de dispositivos de bajo consumo, los enlaces de alta velocidad y el almacenamiento en la nube ya no necesitamos el equivalente a un camión de carga para ir a hacer las compras del mes al supermercado de la esquina. Esto a la vez es un excelente argumento en pro de la modernización y de desechar lo antiguo, a mí me late que los que siguen con esa mentalidad de 'el PC gasta mucho' siguen usando ese viejo y chupador Pentium 4 que compraron hace años porque 'sólo lo uso para ver el correo y YouTube, aún funciona perfecto, ¿por qué habría de cambiarlo?', mientras que un equipo todo-en-uno moderno con un rendimiento mucho mejor consume poco más de la décima parte que el viejo P4. El ahorro de energía es inmenso, y en una casa u oficina donde el PC se usa constantemente y para cosas simples, la inversión se pagará sola con lo que ahorrarán de luz y climatización (para sacar el calor del P4 en verano).
Creo que la lección de todo esto es que hay que medir las cosas por uno mismo, no quedarse con lo que alguna vez alguien dijo, y hay que ahorrar, pero de manera inteligente. Incluso la potencia que traen rotulada muchos aparatos eléctricos es un valor máximo que rara vez es alcanzado en la realidad. Como ejemplo medí un televisor CRT de 29", atrás dice que tiene un consumo de 110W pero al medirlo el consumo real es de 60W. Quizás tiene un peak de 110W al encendido que dura una fracción de segundo, y con eso es suficiente para que por ley sea rotulado así. En el caso contrario, una vez también escuché que la ley chilena estaba rotulando la eficiencia de los televisores LCD por el consumo en standby, por lo que todos sacaban A haciendo el resultado totalmente inútil.
Pienso que si bien hay que ser consciente por nuestro futuro, hay que tener ojo al juzgar el pasado. Un televisor color a tubos (sin transistores, no sólo el CRT) común consumía 400W (¡sí, cuatrocientos!) y la gente los usaba muchas horas al día, todos los días, por décadas. Ahora nos parece un despilfarro, pero en ese entonces el mundo estaba menos cagado, la energía era más barata, y a fin de cuentas, era lo que había.
2: ¡Se te van a poner los ojos cuadrados!
Quién no escuchó eso luego de pasar horas frente a un display ya sea de computador, televisión o portátil, o en algunos casos augurios peores como quedarse ciego o epiléptico producto de la radiación comunista del espacio que emiten las pantallas. He escuchado que emiten desde rayos ultravioleta hasta radiación ionizante, y el famoso vidriecito oscuro que se amarraba con tiras al monitor era un dispositivo sagrado capaz de proteger de semejantes amenazas, levantarlo era el equivalente a sacar el escudo de plomo de un reactor nuclear. Ver la tele muy de cerca era crimen de lesa humanidad en muchas casas, mientras que ahora que la mayoría pasa la totalidad de su jornada laboral frente a una pantalla (para luego llegar a la casa y ver más pantallas) a nadie parece importarle.
Por un lado los monitores CRT económicos que se vendían con los computadores en ese entonces en su mayoría eran de pésima calidad - tubos curvos, chicos, borrosos y con un parpadeo impresionante a los 60 Hz progresivos de refresco vertical que les metía Windows, que siempre asumía una tasa de refresco baja por defecto, no vaya a ser que el usuario tenga un monitor Chengdu Tai Jing Da Dong Computer Co. que no soporte más, y por ende no se vea nada (o se dañe el monitor),y por supuesto, Microsoft tenga la culpa. Mucha gente jamás vio un CRT de buena calidad en su vida y se quedó con esa horrenda impresión de que los monitores son máquinas de jaquecas, además que el umbral de fusión de parpadeo difiere de persona a persona. Los LCD por muy rascas que sean no tienen efecto estroboscópico detectable y quizás por eso dejó de ser tema.
Por otro lado esa premisa de que los displays dañan la vista no parece tener ninguna base sólida en la ciencia. A todos los oftalmólogos que he ido les he preguntado si el uso prolongado de pantallas puede causar daño visual permanente y todos me han dicho que no. Uno me dijo que (puede que haya sido su teoría personal, no lo sé) lo que suele pasar es que cualquier actividad que involucre enfocarse en detalles con minuciosidad (leer, coser, armar barcos dentro de botellas, jugar juegos de vídeo, etc) puede hacerte descubrir que probablemente tienes problemas de visión no detectados, pero la gente erróneamente asume que la actividad minuciosa en cuestión fue la causa de dichos problemas, cuando en realidad los problemas siempre estuvieron ahí pero habían pasado desapercibidos.
Yo sé que el plural de anécdota no es evidencia, pero yo esencialmente (por pega y ocio) vivo frente a pantallas y me gustaba ver la tele de cerca cuando era chico, la 'sabiduría común' diría que me debería estar quedando cada vez más ciego, pero en realidad desde los 18 mas o menos mi prescripción ocular ha ido bajando con el tiempo, lo que a mí definitivamente me dice que una cosa no tiene nada que ver con la otra. Si ocupara la lógica de los cuentos de vieja, diría que las pantallas curan la vista en vez de dañarla!
¿Qué otros cuentos de vieja recuerdan?
En particular me acuerdo de estos dos:
1: ¡Apaga el computador, que va a llegar la tremenda cuenta de luz!
Este fue uno de los que más me jodió a lo largo de mi adolescencia con todo tipo de personas, tenía amigos que no los dejaban usar el PC más de una hora diaria no por el rendimiento académico o conducta, sino por el consumo eléctrico. Me metí en un montón de discusiones y problemas porque es imposible que un niño que sabe leer una etiqueta y multiplicar pueda calcular el consumo de un electrodoméstico. Los niños no saben nada, y si un adulto dice que un PC consume 1.21 gigawatts, esa es la indiscutible verdad.
Recuerdo que mis compañeros me pedían que les desconectara los LEDs del gabinete del PC para que lo pudieran dejar descargando sin que los pillaran (uno pensaría que el ruido de los ventiladores los delataría, pero al parecer pasaba piola) o usaban el PC con un ventilador de mesa sobre el monitor para que sus padres no pudieran detectar el uso a través del calor residual. Por suerte a mi no me tocó nada de eso, en mi casa sabían que un computador personal no lleva capacitor de flujo.
En la práctica los tarros de esa época no eran muy eficientes, no habían tecnologías tipo SpeedStep o Cool 'n Quiet que redujeran la velocidad o voltaje del CPU en períodos de inactividad, las opciones de ahorro de energía venían desactivadas por defecto (o había que desactivarlas sino el PC se dormía si uno se ponía a ver un vídeo) y como aún se corría harto software de DOS o Win16 de manera nativa que usara loops críticos de timing, el uso de CPU era siempre alto. Aún así, incluso con esas fuentes de poder rascas de 200-250W con topología half-bridge bipolar, era raro que el consumo real del Olidata promedio superara los 100W a toda caña. Si se calculaba un uso de 8 horas diarias (harto en ese entonces) con el precio del kWh de la época el costo mensual con mucha suerte bordeaba la luca. De haber estado en los zapatos de mis compañeros que los jodían por eso yo feliz pagaba la luca mensual para que me dejaran usar el PC en paz.
Incluso medí el tarro que usé del 2003 al 2010, por el que en otro topic se me tiraron encima cuando comenté que lo dejaba encendido 24/7 descargando o haciendo de servidor, en aquella época donde un megabit era un lujo y la casilla de correo promedio era de 5 MB. Aún lo conservo en su última configuración (Athlon XP 2600+ / MSI KT4AV / 1.5 GB DDR400 / Geforce 6600 AGP 256MB / 2x 80GB ATA133 / fuente 350W y muchos ventiladores con luces) que es bastante cerda energéticamente hablando, y aún así con todo en modo alto rendimiento y bajo una situación típica de uso el consumo fue de 112W. En la práctica esto se podía mejorar mucho con simples tweaks y políticas de ahorro de energía. La cosa es que aún si me hubiera dedicado a jugar UT un mes de corrido sin descanso alguno la cuenta habría subido unas 3 lucas como mucho.
Hoy en día la luz ha subido bastante y esas cifras ya no se verían tan triviales calculadas al kWh de hoy, sin embargo tenemos de nuestro lado que los avances en procesos de semiconductores han logrado que los equipos modernos hagan mucho más y consuman mucho menos, hay un fuerte énfasis de ahorro energético por parte de hardware y software, y gracias a la multitud de dispositivos de bajo consumo, los enlaces de alta velocidad y el almacenamiento en la nube ya no necesitamos el equivalente a un camión de carga para ir a hacer las compras del mes al supermercado de la esquina. Esto a la vez es un excelente argumento en pro de la modernización y de desechar lo antiguo, a mí me late que los que siguen con esa mentalidad de 'el PC gasta mucho' siguen usando ese viejo y chupador Pentium 4 que compraron hace años porque 'sólo lo uso para ver el correo y YouTube, aún funciona perfecto, ¿por qué habría de cambiarlo?', mientras que un equipo todo-en-uno moderno con un rendimiento mucho mejor consume poco más de la décima parte que el viejo P4. El ahorro de energía es inmenso, y en una casa u oficina donde el PC se usa constantemente y para cosas simples, la inversión se pagará sola con lo que ahorrarán de luz y climatización (para sacar el calor del P4 en verano).
Creo que la lección de todo esto es que hay que medir las cosas por uno mismo, no quedarse con lo que alguna vez alguien dijo, y hay que ahorrar, pero de manera inteligente. Incluso la potencia que traen rotulada muchos aparatos eléctricos es un valor máximo que rara vez es alcanzado en la realidad. Como ejemplo medí un televisor CRT de 29", atrás dice que tiene un consumo de 110W pero al medirlo el consumo real es de 60W. Quizás tiene un peak de 110W al encendido que dura una fracción de segundo, y con eso es suficiente para que por ley sea rotulado así. En el caso contrario, una vez también escuché que la ley chilena estaba rotulando la eficiencia de los televisores LCD por el consumo en standby, por lo que todos sacaban A haciendo el resultado totalmente inútil.
Pienso que si bien hay que ser consciente por nuestro futuro, hay que tener ojo al juzgar el pasado. Un televisor color a tubos (sin transistores, no sólo el CRT) común consumía 400W (¡sí, cuatrocientos!) y la gente los usaba muchas horas al día, todos los días, por décadas. Ahora nos parece un despilfarro, pero en ese entonces el mundo estaba menos cagado, la energía era más barata, y a fin de cuentas, era lo que había.
2: ¡Se te van a poner los ojos cuadrados!
Quién no escuchó eso luego de pasar horas frente a un display ya sea de computador, televisión o portátil, o en algunos casos augurios peores como quedarse ciego o epiléptico producto de la radiación comunista del espacio que emiten las pantallas. He escuchado que emiten desde rayos ultravioleta hasta radiación ionizante, y el famoso vidriecito oscuro que se amarraba con tiras al monitor era un dispositivo sagrado capaz de proteger de semejantes amenazas, levantarlo era el equivalente a sacar el escudo de plomo de un reactor nuclear. Ver la tele muy de cerca era crimen de lesa humanidad en muchas casas, mientras que ahora que la mayoría pasa la totalidad de su jornada laboral frente a una pantalla (para luego llegar a la casa y ver más pantallas) a nadie parece importarle.
Por un lado los monitores CRT económicos que se vendían con los computadores en ese entonces en su mayoría eran de pésima calidad - tubos curvos, chicos, borrosos y con un parpadeo impresionante a los 60 Hz progresivos de refresco vertical que les metía Windows, que siempre asumía una tasa de refresco baja por defecto, no vaya a ser que el usuario tenga un monitor Chengdu Tai Jing Da Dong Computer Co. que no soporte más, y por ende no se vea nada (o se dañe el monitor),y por supuesto, Microsoft tenga la culpa. Mucha gente jamás vio un CRT de buena calidad en su vida y se quedó con esa horrenda impresión de que los monitores son máquinas de jaquecas, además que el umbral de fusión de parpadeo difiere de persona a persona. Los LCD por muy rascas que sean no tienen efecto estroboscópico detectable y quizás por eso dejó de ser tema.
Por otro lado esa premisa de que los displays dañan la vista no parece tener ninguna base sólida en la ciencia. A todos los oftalmólogos que he ido les he preguntado si el uso prolongado de pantallas puede causar daño visual permanente y todos me han dicho que no. Uno me dijo que (puede que haya sido su teoría personal, no lo sé) lo que suele pasar es que cualquier actividad que involucre enfocarse en detalles con minuciosidad (leer, coser, armar barcos dentro de botellas, jugar juegos de vídeo, etc) puede hacerte descubrir que probablemente tienes problemas de visión no detectados, pero la gente erróneamente asume que la actividad minuciosa en cuestión fue la causa de dichos problemas, cuando en realidad los problemas siempre estuvieron ahí pero habían pasado desapercibidos.
Yo sé que el plural de anécdota no es evidencia, pero yo esencialmente (por pega y ocio) vivo frente a pantallas y me gustaba ver la tele de cerca cuando era chico, la 'sabiduría común' diría que me debería estar quedando cada vez más ciego, pero en realidad desde los 18 mas o menos mi prescripción ocular ha ido bajando con el tiempo, lo que a mí definitivamente me dice que una cosa no tiene nada que ver con la otra. Si ocupara la lógica de los cuentos de vieja, diría que las pantallas curan la vista en vez de dañarla!
¿Qué otros cuentos de vieja recuerdan?
