Tuesday, May 08, 2007

“Telemática y nuevos escenarios urbanos”

Presentado el 08 de mayo del 2007
para cierto curso Universitario.

Se propone ahora el discutir sobre la idea de visualizar al ciberespacio como un espacio urbano ideal, es decir, según Maldonado, “(…) como un modelo de ciudad que, mediante una capilar digitalización de su planteamiento, estaría en condiciones de superar todos los males que hoy afligen a la sociedad tradicional”.
Se nos proyectó también un video donde se presentaban múltiples avances científico-técnicos, los cuales, más que cualquier otra cosa, hacían ya no ver risibles las proyecciones futuristas que lograron concebir algunos autores de ciencia-ficción de antaño. Casas de habitación cuasi inteligentes, artículos varios equipados con parámetros de Inteligencia Artificial a fin de no ocupar mano humana, y un montón de ideas que se hicieron tangibles entre el avance y la ciencia, la tecnología y el conocimiento. Artefactos que visiblemente plasman la idea humana de mecanizar las cosas a fin de hacernos la vida más fácil, y quizás hasta darnos el tiempo necesario para pensar más en nosotros mismos, o construir cosas aún mejores a fin de generar una mayor calidad de vida humana.
Así, hoy en día la idea de ciudades virtuales, teletrabajo y teledidáctica parecen no verse tan de largo ni tan rudimentarias, sino como sistemas que se acercan cada vez más a la realidad cotidiana del individuo, y no sólo del primer mundo, sino también de quienes habitamos al denominado tercer mundo.

Maldonado discute esto. Se acerca a dialogar, proponer y replantear un sinnúmero de preguntas que él mismo pretende contestar. Su énfasis es de nuevo taciturno, negativo, subjetivo y cuestionable.
De todo lo leído lo que más me llamó la atención fue lo tratado al final del capítulo, referente a la teledidáctica, y lo que él mismo ve como una no-amenaza. Cuando se refiere a la virtualización (término que él mismo usa) de las universidades y otros “templos” (término que yo uso, y no con fines halagadores) educativos. Considera él que “(…) Es más probable que las escuelas y universidades sigan existiendo como entidades físicas y que sólo algunos sectores, aunque importantes, puedan ser, por así decir, virtualizados”.
Creo importante recalcar, que en lo personal, también comparto ésta opinión, pero no su temor, que se fundamenta en la tendencia de querer sustituir la educación “en vivo”, y todas las “ventajas” que ella implica, a las consideradas “a distancia”. En asuntos de pedagogía temprana, por así decirlo, sí considero que sea un asunto muy importante, y para no dejar de lado. La convivencia social a temprana edad es un pilar fundamental que al ciudadano no se le debería quitar, pero en asuntos de educación superior sí considero que este aspecto no es del todo tan aberrante que se excluya a como lo llega a apuntar el autor. Considero que en efecto, no existe tal exclusión, y que al fin y al cabo, la búsqueda educativa y el sopesar la importancia de la información adquirida por el estudiante, es siempre responsabilidad del estudiante. También considero, que de la educación “en vivo”, se tiende a militarizar ciertas formas de pensamiento, y que a final de cuentas, el individuo llega a concebir una forma de ver las cosas desde el cristal que al educador le de la gana proporcionárselas, misma que eventualmente podría ser evadida, si en efecto, es el estudiante quién responsablemente se dedicara a leer y a tener conciencia “propia” de lo que le llega a sus manos.
Considero, sobra decir, una falacia el hecho de que por aprender a manos propias y por un CD-ROM o libro aislado del pensamiento del pedagoga, llegue a convertirse en un asunto contraproducente, sino todo lo contrario. Pero también creo que el eslabón principal para que esto no se de, es la educación que en sus primeros pasos el individuo pudo llegar a adquirir.
El autor dice: “No obstante, pienso que el CD-ROM como instrumento didáctico está enormemente condicionado por una ambigüedad de fondo”, como si en efecto, el hecho de que “el tradicional aprendizaje como conocimiento impartido” al ser sustituido por “el aprendizaje contextual”, marcara una “inflexión en la filosofía de la educación”. Confieso desconocer, aunque no por completo, a lo que él se refiere como filosofía de la educación. ¡Pero si la educación no implica otra cosa más que formación, enseñanza y aprendizaje!, y de una u otra forma, considero más transparente la no mezcla impuesta de tendencias formadas por parte de terceros, es decir, el cristal desde el que ve la misma materia el educador, quién es al fin y al cabo, un personaje que el individuo mismo termina por no conocer más allá de su nombre, estatus profesional y horario de trabajo.
Sin embargo, la excepción a las ideas acá planteadas está en el hecho de que sólo es aplicable dentro del contexto educacional no científico-técnico. Es decir, considero yo, sólo se aplica en materias educativas no inmiscuidas en tópicos meramente puros, como la matemática, sino en temas mucho más abstractos, como la filosofía y forma de pensamiento, la apreciación artística o incluso la politología. Bajo ésta esquela, pretendo admitir que para asimilar y comprender por ejemplo la anatomía del cuerpo humano desde un punto meramente científico, sí es necesario la guía directa de un tercero capacitado y con toda la información necesaria para impartir y responder a una cátedra de preguntas planteables por sus estudiantes. En los demás aspectos, considero que las preguntas y respuestas pueden bien ser encontradas en el individuo mismo, en su entorno social, o en otros textos, sin con esto decir que no sea influenciado por ellos, pero al menos considerando el hecho de que tendría varias tendencias para escoger, y no la única expuesta por el educador.
Pero ni el espacio, ni el tiempo da para discutir a fondo éste tema, y tan sólo me he concentrado en uno de los muchos tratados en el texto, quizás muy alejado incluso de los tratados en el video. Bajo éstas premisas, sólo me queda decir que el tema es extenso, y ésta sólo una pincelada superflua sobre lo que se refiere al concepto personal que concibo de pedagogía y educación del individuo.

Sobre lo que se refiere al resto del video, en visible que en la actualidad se puede percibir cada vez más el efecto de la virtualización dentro del contexto humano, y que sus consecuencias ya no son únicamente teóricas, sino tangibles.Lo que preocupa de todo esto, es que en efecto el individuo no sepa afrontar sus nuevas responsabilidades, y que la proyección del futuro sea en efecto la temida tendencia a que el pensamiento y actuar humano se vuelva rudimentario, donde la comodidad impere, y ya no sea necesario esforzarse. Donde la búsqueda del conocimiento sea reemplazada por un materialismo que sustituya cualquier conducta humana, y que incluso y para variar, ya no se vea necesario socializar: donde el contacto humano sea nada mas concebido por cables y ciudades virtuales.

**Nota: si la lectura del texto anterior suena contradictoria, aclaro vale la pena leer primero la seccion: "En construcción" también publicada en ésta página.

“Bringing DNA computers to life”

Presentado el 18 de mayo del 2006
para cierto curso Universitario.

Cuando Alan Turing habló de computadores, no se refirió a otra cosa que no fueran seres humanos. El concepto puro que Turing tenía de una máquina no tenía alambres, transistores o compuertas lógicas. Siempre lo imaginó como una persona con un papel de largo infinito, un lápiz y un libro de instrucciones simples.

Por ejemplo, los organismos vivientes también llevan a cabo procesos físicos complejos bajo la dirección de información digital. Reacciones biomecánicas y últimamente la operación entera de un organismo, están sujetas a instrucciones almacenadas en su genoma, codificadas en secuencias de ácidos nucleicos.
Cuando el trabajo de las máquinas biomoleculares dentro de las células que procesan ADN y ARN son comparadas con la máquina de Turing, similitudes inmensas emergen: ambos sistemas procesan información almacenada en una tira de símbolos tomados de un alfabeto, y ambos operan moviéndose paso a paso a través de esas tiras, modificando y sumando símbolos de acuerdo a un conjunto de reglas. Este paralelismo ha inspirado la idea de que las moléculas biológicas pueden un día ser la materia prima de una nueva especie de computadores. Pero las moléculas tienen una habilidad única: hablan el lenguaje de las células vivas. La promesa de computadores hechos de moléculas biológicas se basa en su potencial para operar entre un ambiente biomolecular, aún dentro de un organismo vivo, e interactuar con el ambiente mediante entradas y salidas en la forma de otras moléculas biológicas.
En los pasados 7 años, se ha estado trabajando para hacer realidad este sueño. Se ha alcanzado el crear un autómata biológico hecho de ADN y proteínas capaz de diagnosticar en un tubo de ensayo la sinopsis molecular de ciertos canceres y tratar la enfermedad liberando moléculas terapéuticas.

La primera demostración del mundo real del poder de las moléculas computacionales fue en 1994 cuando Leonard M. Adleman de la Universidad de Calorina del Norte usó el DNA para resolver el ciclo Hamiltoriano.
Más adelante Beneson tuvo la idea de usar una molécula de ADN para representar la tira de entrada., otras cuatro moléculas de ADN más pequeñas para representar las reglas de transición del autómata y dos enzimas manipulables de ADN como el hardware. El mayor problema en su diseño era saber cómo representar los cambiantes estados intermedios, que consistían en estados internos del autómata y un apuntador al símbolo que en ese momento estaba siendo procesado de la tira de entrada. Una vez la entrada, las moléculas de software y hardware eran ubicadas en un buffer apropiado de solución en un tubo de ensayo, se comenzaba a computar y se procedía a completar sin intervención humana.
Sólo dos estadios eran suficientes: si o no. El autómata comenzaría el cómputo en el estado de si y chequearía una condición a la vez. Si una condición en su lista estaba presente, el estado de si se mantendría, pero si no estaba, el autómata cambiaba su estado a un no y se quedaría así para el resto del proceso a computar.
Una vez de que se tuvo tanto un mecanismo de entrada que podía censar síntomas de enfermedad, y un aparato lógico que realizaba el diagnóstico, la siguiente pregunta era: ¿qué debe de hacer una computadora luego de que una enfermedad era diagnosticada? Primero se consideró el reportar una señal de diagnóstico visible. En el mundo molecular, sin embargo, producir una señal y tomar el siguiente paso lógico de administrar un medicamento no están del todo lejos. Binyamin Gil propuso entonces un mecanismo que le permitía al computador liberar una molécula de ese tipo dando resultados positivos.

Así, se crearon dos tipos de moléculas computacionales: una designada a liberar un medicamento cuando el cómputo terminaba en estado de sí, y por otro lado liberar un supresor del mismo medicamento cuando el cómputo termina en estado de no. Cambiando las respectivas concentraciones de estos dos tipos de moléculas, se puede tener buen control sobre la certeza del diagnóstico que tendrá acabo la administración del medicamento.

Sin embargo este estudio no sugiere que las moléculas reemplazarán a las máquinas para todas las tareas computacionales. Las dos especies tienen sus diversas fortalezas y bien pueden coexistir. El hecho de que las biomoléculas pueden tener acceso directo a los datos codificados en otras biomoléculas, son compatibles con sistemas vivos de la forma en que los computadores electrónicos jamás podrán.De igual forma, se cree que estos experimentos sugieren que estas nuevas especies de computadores son de fundamental importancia y utilidad en una gran variedad de aplicaciones. El computador biomolecular se ha creado.

“Las dos caras de la Inteligencia Artificial”

Presentado el 16 de mayo del 2006
para cierto curso Universitario.

Inteligencia Artificial e Inteligencia Artificial.
La definición de la inteligencia natural (I.N.) es difícil y áspera, pero bien se podría decir que obrar inteligentemente corresponde a tomar la decisión correcta de acuerdo al entorno existente.
De la exhibición continua de comportamientos inteligentes se puede determinar si un ente posee o no esta característica intelectual; así entonces IA se puede definir como la rama de la computación que busca desarrollar programas tales que, si su labor fuera realizada por un ser humano, se diría que el ser humano ha exhibido inteligencia.
Las dos tendencias más conocidas por medio de las cuales se ha buscado dotar a las máquinas de comportamiento inteligente son el enfoque simbólico y no simbólico. De los enfoques no simbólicos debe destacarse la rama de conexionismo o redes neurales.

La prueba de la máquina de Turing y el proceso del pensamiento según Searle.
Se han presentado una serie de argumentos que desmienten la efectividad de la prueba de Turing como un elemento real par discernir so una máquina exhibe o no un comportamiento inteligente similar al de un ser humano.
En particular han tomado fuerza en los últimos años las teorías filosóficas de John Searle con respecto al pensamiento. La intencionalidad es una característica de la conciencia de manera que el individuo está consciente de los fines de sus actos.
El concepto de intencionalidad es importante porque ayuda a distinguir el verdadero proceso del pensamiento de una acción mecánica. Para Searle las máquinas son capaces de exhibir comportamiento inteligente, de hecho los seres humanos son las máquinas que actualmente lo exhiben. De igual forma, pueden existir fenómenos tan complejos en su estructura y funcionamiento que el modelo más sencillo que se puede considerar para estudiarlos sea el sistema mismo.

La representación del conocimiento.
Se entenderá por representación del conocimiento la selección de una estructura abstracta de datos para la representación de la información sobre un área específica de conocimiento.
Una forma de representar este conocimiento de forma simbólica es por medio de reglas if-then. Si se cumplen las condiciones presentes en la parte del if de la regla se ejecutarán las acciones presentes en el then. Este tipo de representación es bastante utilizado en los Sistemas Expertos. Una vez que se cuenta con las reglas el manejador de la base de conocimientos, llamado motor de inferencia, se encarga de escoger la regla que más ajusta a las relaciones existentes.
Las redes neuronales son una forma no simbólica de representar el conocimiento. Su estructura se basa en la estructura de las neuronas biológicas. Las neuronas son los elementos que almacenan y procesan información en el cerebro humano. Estas poseen muchos canales de entrada llamados “dendritas” y producen una única salida la cual se propaga por medio del “axón” hacia las otras neuronas. El funcionamiento interno de la neurona es relativamente simple, su poder computacional surge de la densa interrelación entre las neuronas. La red neuronal trabaja con números, no con símbolos.

Relación entre el pensamiento y la representación del conocimiento.
Supongamos que es posible construir por medio de las redes neuronales un sistema tan complejo e inteligencia que sea capaz de pasar la prueba de Turing. Dicho sistema no es reducible (al menos en principio) al problema del cuarto chino, puesto que su funcionamiento es holístico, yaciendo su conocimiento en la globalidad del sistema. Ninguna parte de dicho sistema guarda de forma clara y simbólica la información, sino que por el contrario la información se encuentra distribuida en toda la red.
Es claro que el sistema construido por medio de redes neuronales es compatible con la prueba de Turing y la teoría del pensamiento de Searle. Parecer ser entonces que la teoría de Searle aboga por sistemas no simbólicos, puesto que cualquier representación simbólica es reducible al problema del cuarto chino.

“De la Inteligencia Artificial y otros detalles…”

Presentado el 23 de febrero del 2006
para cierto curso Universitario.
Basado en un artículo publicado
en alguna revista importante.

Muchas cosas empiezan con propuestas, se podría inclusive decir que la vida entera es una propuesta infinita y calculada, claro que ésta se divide en partes, y cada una de ellas poseen en sí, una propuesta específica. Así que Alan M. Turing se atreve a lanzar una, y sucede que no es otra cosa más que el evocar el génesis de toda una era de incertidumbre, roces filosóficos y computólogos aferrados a un ideal positivista de “sí se puede”.
¿Y cuál es esa pregunta?, la respuesta no es otra más que: ¿pueden las máquinas pensar?
Es una frase carente de puntos suspensivos, en realidad es completamente puntual y deja la imposibilidad de redundar mucho en otros temas. La pregunta es simple, pequeña, compacta, predecible, quizás, si nos remontamos a la era actual; un tema trillado dirán: si ya hasta se imparte como cátedra común en la universidad es porque el asunto ha adquirido tal popularidad que debería ser normal referirse a él.

Yo replantearía la pregunta, la haría más exacta, un poco más cercana a la realidad. ¿Pueden las máquinas parecerse a un ser humano tanto que hasta sería imposible, a simple vista, reconocer si en efecto se trata de una máquina o una persona?, creo más en una respuesta cabal a esta pregunta, tomando en cuenta los experimentos, conclusiones, conceptos, teoremas e hipótesis posteriormente expuestas por Turing, y a mi propia concepción con respecto al tema. El asunto no es fácil de explicar.
El meollo de tanta incertidumbre es el siguiente: tomando como punto de partida las premisas de Turing, yo me pregunto: ¿y quién dijo que el ser humano puede pensar? El hecho de que nosotros creamos poseer la certeza de que nuestro prójimo funciona de una forma similar a la nuestra no muestra absolutamente nada; así, la experiencia no es sólo una prueba cuestionable, sino que además suele ser fluctuante y carente de valores conceptuales.
Es decir, no por el hecho de que nosotros creamos pensar se puede concluir inmediatamente que entonces el resto de personas también posean esa capacidad; dentro de nuestra concepción estamos limitados, en este punto es importante recalcar, que no se puede suponer la existencia de algo basado en lo que se supone ha sido nuestra propia experiencia.

El ser humano actúa por imitación, al igual que los animales, e incluso una máquina puede aprender por imitación, eso es completamente natural; se supone entonces que el misticismo humano radica en nuestra capacidad de razonamiento, siendo esto no más que una capacidad inherente de escoger y ser impredecible: nuestro comportamiento se traduce entonces en una sola frase: estados caóticos.
Eso es lo que comúnmente se profesa, incluso y entran a jugar conceptos como “libre albedrío” y otras quimeras filosóficas cuando en verdad sabemos que nuestra realidad está sujeta y completamente limitada a las alternativas expuestas, esto es, el aprendizaje previo.

Si yo por ejemplo deseo escoger mi color favorito y únicamente poseo de alternativas el blanco o negro, es imposible que sin saber la pre-existencia del rojo, sea este último el que escoja. 1ª Conclusión: nuestra libertad está limitada.
Si además por ejemplo, de pequeña nunca pude superar un trauma hacia la oscuridad, es muy posible que entonces tenga cierta aversión hacia el color negro, y termine escogiendo el blanco. 2ª Conclusión: lo impredecible está limitado por la experiencia o aprendizaje previo.
3ª Conclusión: La experiencia o aprendizaje previo no es más que un repositorio de imágenes visuales e información debidamente almacenada y conectada entre sí, que sea entendible y utilizable de forma lógica. Responde a la premisa de imitación. Todo lo hemos aprendido por imitación, los sonidos traducidos en vocales y palabras, así como los garabatos en papel a manera de escritura e incluso la forma de comer, la colectividad y poca variedad en la forma de agarrar un tenedor o cuchara no presupone otra cosa más que imitación.
Se ha comprobado que el comportamiento humano resultante luego de comer chocolate es equivalente a la sensación de estar enamorado. 4ª Conclusión: los llamados sentimientos no son más que respuestas químicas y por lo tanto se pueden simular.
Un animal cualquiera, incluidos los seres humanos, es capaz de aprender por prueba y error. El razonamiento no es otra cosa más que el recordar cierta vivencia y sacar conclusiones con respecto a dicho aprendizaje. Este apartado refuerza la 3ª conclusión.

En realidad se puede ahondar mucho más en el tema, pero incluso y tomando como premisa los estados caóticos y ver la sociedad mundial como un apartado impredecible es completamente erróneo. El ser humano, tanto como ente social así como personal, es un partícipe causal del entorno donde se desenvuelve, y esto presupone la posibilidad de predecir su comportamiento por causa de las limitaciones antes expuestas. Si no fuera así, entonces sería imposible medicar a un paciente psiquiátrico porque si todos actuáramos como entes únicos, entonces se debería desarrollar un tratamiento particular y personalizado a cada paciente, cosa que obviamente no ocurre: se tienen métodos, técnicas, medicamentos estandarizados, todo meramente clasificado.
No existiría la sociología o antropología, sería imposible encapsular los comportamientos humanos, pero obviamente por nuestra incapacidad de crear y concebir nuevos estados que antes no estuvieran ahí ya sea por causalidad o por conclusiones previas, somos categorizados en grupos y eso, efectivamente, no presupone nada impredecible.
Incluso y lo que se ha descubierto ya estaba en la naturaleza, así, se demuestra de nuevo que actuamos por imitación, tomamos conceptos superfluos y los reproducimos en conjunto con otros, haciéndonos parecer que es algo nuevo, cuando en realidad es el híbrido de dos conceptos pre-existentes.

Bajo estas premisas, entonces el ser humano no es ni impredecible ni de pensamiento ilimitado, es decir que es hasta inferior a un autómata, tomando en cuenta que un autómata puede contener información ilimitada, limitante clave en un ser humano. Así, el ser humano se traduce en ser un autómata de segundo grado, y como un autómata es en realidad una máquina, entonces el ser humano es una máquina. Por consiguiente la conclusión final a la pregunta ¿pueden las máquinas pensar? es esta: sí, considerando la suposición de que lo que hace el ser humano es pensar, entonces efectivamente una máquina puede pensar.

**Nota: si la lectura del texto anterior suena contradictoria, aclaro vale la pena leer primero la seccion: "En construcción" también publicada en ésta página.

“Los blogspaces, una adicción compartida”

Presentado el 11 de agosto del 2005
para cierto curso Universitario.
Basado en un artículo publicado
en alguna revista importante.

Era inevitable, el ser humano es por naturaleza impetuoso. Día a día los descubrimientos científicos y tecnológicos de algunos pocos visionarios nos asombran, moviendo a la especie hacia un estado de conciencia común que a través de la historia podríamos hasta ver como largas intervenciones catárticas que nos hacen avanzar o retroceder, según el funcionamiento que les demos. Así nos encontramos con el fenómeno de lo que empezó como un proyecto académico de un grupo de estudiantes estadounidenses para montar una red de área global: la Internet, medio que ha crecido de manera inmensurable para extraer, y algunas veces hasta socavar, cuanta información nos puede brindar este medio que se ha convertido (y con gran razón) en uno de los principales pilares informativos de la actualidad.

“¡La literatura está llena de aromas!”, dijo alguna vez Walt Whitman, famoso poeta que trató de ilustrar el concepto vitalista que de todos los aspectos de la vida tuvo la generación beat, ahora, en la era cibernética, bien podríamos exclamar: ¡La Internet está llena de aromas!, y es que sin un significado asociable al español, los “blogspaces” se han traducido en un calificativo común entre la clase media y alta de vanguardia como un sabor más del cual bien podríamos degustar su aroma; en la era de la computación, las telecomunicaciones, los pseudónimos cibernéticos cuasi-corporativos y la malgastada y creciente creencia en la libertad de expresión, las personas ya no sólo se tiran desnudas a las calles para protestar contra el gobierno o las restrictivas costumbres de antaño, ahora también han adoptado una postura de queja, socialización y entretenimiento a través de una aglomerada gama de sabores de acontecer tecnológico: servidores de news, foros, chats y páginas que ofrecen espacios para que estos cibernautas se expresen a como quieran, cuando quieran y sobre (prácticamente) lo que quieran.

Como consecuencia tenemos a un vulgo ocupado por encontrar quehaceres que mejoren su vida o capturen su atención, esta última quizás como un intento fallido de no permitirle a la mente pensar más de la cuenta, o evitar despertar un día sabiéndose desperdiciado por horas incalculables de hipnotismo televisivo. De cualquier forma siempre podemos encontrarle el lado positivo a las cosas, y tratando de que esta frase no suene como una repetición peyorativa de alguna excusa trillada, qué mejor manera que ejemplificándola con el tema en cuestión: los “blogspaces”.
¿Lo positivo? Una utilería más para que excéntricos matemáticos muestren sus capacidades de objetividad estadística, sacando cálculos inmensurables en pos de encontrar la capacidad vitalicia, importante y trascendental del asunto, o al menos una explicación aceptable a tal grado de fenómeno que se ha extendido a nivel mundial.
¿Lo negativo? El crecimiento de una orbe que se ha olvidado de sus capacidades inherentes de socializar de manera “común y silvestre”, a como se ha hecho desde antaño; y es que aunque esta aseveración suene un tanto chabacana o hasta vulgar, es incluso mas “auténtico” ventilar temas comunes con personas que estamos seguros de conocer, o que al menos podemos hasta tocar, tomando en cuenta que las conversaciones “en vivo” dan pie a discusiones mucho más interactivas, naturales y espontáneas.


De cualquier forma es impresionante y hasta interesante la forma en que se ha desarrollado este ya no tan fenómeno; si alguna vez fueron los “news” y los foros, ahora ha llegado la hora del “blogging”, y si este toma un rumbo tan edificante como el de sus predecesores, en buena hora por su aparición; lo único que aún como estirpe debemos de cuidar, es nuestra capacidad de desenvolvimiento social y de interacción personal con nuestro hábitat humano, antes de que se pueda vislumbrar un futuro sombrío como el expuesto por Ray Bradbury en su libro Fahrenheit 451, y que el mantener relaciones interpersonales a nivel cibernético no se convierta en una adicción compartida; en otras palabras: evitar la evolución errónea de una sociedad que ya no sólo vive en pos de la televisión, sino que también adquiere, día a día, una actitud tecnológica esclavizante globalizada.

**Nota: si suena contradictorio, aclaro vale la pena leer primero la seccion: "En construcción" también publicada en ésta página.