miércoles, 30 de septiembre de 2009

t.i.c

Tecnologías de información y comunicación
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Las tecnologías de la información y la comunicación (TIC) son un conjunto de técnicas, desarrollos y dispositivos avanzados que integran funcionalidades de almacenamiento, procesamiento y transmisión de datos.
Las TIC tienen como fin la mejora de la vida, son aparatos de comunicacion.
En sociología y política, la expresión TIC se utiliza para mencionar los aparatos electronicos con fines de comunicacion. con finalidades concretas como, por ejemplo:

organización y gestión empresarial,
decidir
Por ello, para las ciencias sociales y analistas de tendencias, las TIC no se refieren a la implementación tecnológica concreta, sino de aquellos otros valores intangibles que son el estudio propio de dichas disciplinas.
Enlaces externos [editar]
AulaTIC. Las TIC en el Aula
Formación en el uso de las TIC
TIC en Argentina
Las TICs y sus aportaciones a la sociedad
Sociedad del Conocimiento IV: TIC y Aprendizaje
Tecnologías de la información y la comunicación
Las tecnologías de información y comunicación: valor agregado al aprendizaje en la escuela
Internet y nuevas tecnologías, artículos del Instituto Juan de Mariana
Comunidad de Docentes en el uso de las TICs en el aula
TIC y Educación, o, el dilema del medio y del diseño
Noticias Tecnologicas e Informaticas
"El cambio sucede" - Video en YouTube que habla sobre cómo las TIC están cambiando radicalmente nuestra vida.
ÁREA DE TELECOMUNICACIONES
MODULO 1: INTRODUCCIÓN A LAS TELECOMUNICACIONES
TEMA 1: CONCEPTO DE TECNOLOGÍAS DE LA INFORMACIÓN Y LAS COMUNICACIONES
INTRODUCCIÓN
Las denominadas Tecnologías de la Información y las Comunicaciones (TIC) ocupan un lugar central en la sociedad y en la economía del fin de siglo, con una importancia creciente. El concepto de TIC surge como convergencia tecnológica de la electrónica, el software y las infraestructuras de telecomunicaciones. La asociación de estas tres tecnologías dan lugar a una concepción del proceso de la información, en el que las comunicaciones abren nuevos horizontes y paradigmas.
El capítulo realiza una descripción de los objetivos de cada una de estas tecnologías, sentando las bases para las fases futuras del curso. Se explican sus conceptos fundamentales y se repasa el estado del arte de la electrónica, el software y las infraestructuras de telecomunicaciones.
El último epígrafe muestra que la convergencia no es sólo tecnológica, sino que los sectores a que dan lugar cada una de estas tecnologías -las telecomunicaciones, la informática y el audiovisual- también están convergiendo en los nuevos mercados, llegando incluso a configurarse un nuevo sector de actividad, dotado de una gran relevancia económica: el sector multimedia.
CONCEPTO DE TIC
Se denominan Tecnologías de la Información y las Comunicaciones, en adelante TIC, al conjunto de tecnologías que permiten la adquisición, producción, almacenamiento, tratamiento, comunicación, registro y presentación de informaciones, en forma de voz, imágenes y datos contenidos en señales de naturaleza acústica, óptica o electromagnética [1]. Las TIC incluyen la electrónica como tecnología base que soporta el desarrollo de las telecomunicaciones, la informática y el audiovisual.
Vamos a profundizar en esta definición a partir de los elementos que en ella se citan, los cuales quedan explicados en la figura 1.
Figura 1. El Proceso de Información
Afirmar el carácter de tecnología para este campo del conocimiento y actividad profesional significa que estamos considerando de forma integrada:
Una base teórica propia que sistematiza un conjunto de conocimientos científicos que proceden de distintas disciplinas básicas (Física, Matemáticas, etc.) y aplicadas (Electrónica, Teoría de la Señal, Algorítmica, etc.).
Un conjunto de técnicas, en el doble sentido de la palabra como artificio y método, que permiten diseñar, construir, fabricar, operar y evaluar sistemas complejos de tratamiento de la información.
Un impacto socioeconómico y cultural profundo que afecta a todos los sistemas sociales y modos de vida.
La convergencia de las tecnologías y los conocimientos científico-técnicos involucrados en la electrónica, la informática y las telecomunicaciones es una realidad fácil de observar al analizar los sucesivos cambios de planes de estudio que han ido cursando los titulados de las respectivas Ingenierías en la última década. Sin embargo, esta convergencia no ha venido acompañada hasta ahora por una convergencia de los mercados.
Esta situación se ilustra en la figura 2, donde se presentan las grandes áreas de conocimiento procedentes de estas disciplinas y su progresiva fusión en lo que hemos denominado Tecnologías de la Información y las Comunicaciones.
Figura 2. Convergencia de Conocimientos
La información la podemos clasificar en:
Voz: Mecanismo primario para la comunicación humana. Es de naturaleza acústica.
Imágenes: Al igual que la voz, es un mecanismo primario para la comunicación humana, si bien lo que distingue a ambas clases es su mayor potencial comunicador. Es de naturaleza óptica.
Datos: Información en forma numérica. Pertenecen a esta clase de información, los datos contenidos en una base de datos o los datos registrados por un sismógrafo. Es de naturaleza electromagnética.
Estos tres tipos de información pueden presentarse en formato analógico o digital. Una información analógica se representa mediante infinitos valores, mientras que la información digital sólo puede tomar dos valores "0" o "1". Se denomina digitalización al proceso de conversión de una señal analógica en digital. Estos dos escenarios quedan reflejados en la figura 3. El modem es un sistema electrónico que convierte las señales digitales generadas por un ordenador en una señal analógica apta para ser transmitida por una línea telefónica.
Una observación importante es que los datos en su origen son una señal digital y que la voz y las imágenes se pueden convertir en datos una vez digitalizadas. Asimismo, también conviene señalar que una vez digitalizadas las señales de voz e imágenes pueden ser tratadas homogéneamente mediante un ordenador, si bien ambos tipos de datos difieren en la capacidad de proceso requerida.
Figura 3. Clases de Información
Cada uno de estos tipos de información se caracteriza por la cantidad de información que incorporan, esto es, por el ancho de banda y velocidad de transmisión que requiere su transporte; a mayor cantidad de información, mayor ancho de banda y velocidad de transmisión requeridos. Así, la voz es la que menos ancho de banda ocupa y las imágenes la señal que más. El ancho de banda es la mayor restricción con que se encuentran actualmente las TIC, por lo que en su resolución se centra gran parte de las actividades de Investigación y Desarrollo que está acometiendo el sector de las TIC.
Las TIC tienen sus orígenes en las llamadas Tecnologías de la Información (Information Technologies o IT), concepto aparecido en los años 70, el cual se refiere a las tecnologías para el procesamiento de la información: la electrónica y el software. Este procesamiento se realizaba casi exclusivamente en entornos locales, por lo que la comunicación era una función poco valorada. Por otra parte, la estrategia centralista de las corporaciones, hacía compatible la existencia de un departamento de sistemas de información centralizado en una única máquina.
Las nuevas formas de trabajo y la globalización de la economía imponen la necesidad del acceso instantáneo a la información y por tanto, de interconectar las distintas redes que se han ido creando, diseñándose nuevas arquitecturas de sistemas, en las que la función de comunicación es de igual importancia o superior por lo estratégico de la disponibilidad instantánea de la información. A esto se añade, la existencia de unas infraestructuras de comunicación muy extendidas y fiables y un abaratamiento de los coste de comunicación lo que estimuló la aparición de nuevos servicios adecuados a las estrategias de las corporaciones. La comunicación instantánea es vital para la competitividad de una empresa, en un mundo en que la información se convierte en un input más del sistema de producción.
El uso y el acceso a la información es el objetivo principal de las TIC. El manejo de la información es cada vez más dependiente de la tecnología, ya que los crecientes volúmenes de la misma que se manejan y su carácter claramente multimedia obligan a un tratamiento con medios cada vez más sofisticados. El acceso a redes como Internet mediante ordenadores personales o la complejidad de los sistemas bancarios y de reservas aéreas totalmente informatizados son pruebas evidentes de que sin la tecnología el uso de la información sería imposible en la actualidad.
En conclusión, la causa de la aparición de las TIC, fusión del tratamiento y de la comunicación de la información, es que se produce un proceso de convergencia tecnológica de distintas áreas de conocimiento y aplicación, la electrónica, la informática y las telecomunicaciones que, si bien hasta comienzos de la década de los setenta se desarrollaban independientemente, hoy día están estrechamente relacionadas entre sí.
LOS COMPONENTES BASE DE LAS TIC
Existen múltiples factores de índole tecnológico que explican la convergencia de la Electrónica, la Informática y las Telecomunicaciones en las TIC. Pero todos se derivan de tres hechos fundamentales:
Los tres campos de actividad se caracterizan por utilizar un soporte físico común, como es la microelectrónica.
Por la gran componente de software incorporado a sus productos.
Por el uso intensivo de infraestructuras de comunicaciones que permiten la distribución (deslocalización) de los distintos elementos de proceso de la información en ámbitos geográficos distintos.
La microelectrónica, frecuentemente denominada hardware, está residente en todos las funcionalidades del proceso de información (figura 1). Resuelve los problemas relacionados con la interacción con el entorno como la adquisición y la presentación de la información, mediante dispositivos como transductores, tarjetas de sonido, tarjetas gráficas, etc. No obstante, su mayor potencialidad está en la función de tratamiento de la información. La unidad fundamental de tratamiento de la información es el microprocesador, que es el órgano que interpreta las órdenes del software, las procesa y genera una respuesta. La microelectrónica también está presente en todas las funciones de comunicación, almacenamiento y registro.
El software traslada las órdenes que un usuario da a una computadora al lenguaje de ejecución de órdenes que entiende la máquina. Está presente en todos las funcionalidades del proceso de la información, pero especialmente en el tratamiento de la información. El hardware sólo entiende un lenguaje que es el de las señales eléctricas en forma de tensiones eléctricas, por lo que es necesario abstraer de esta complejidad al hombre y poner a su disposición elementos más cercanos a sus modos de expresión y razonamiento.
Las infraestructuras de comunicaciones constituyen otro elemento base del proceso de información, desde el momento en que alguna de las funcionalidades resida en un lugar físicamente separado de las otras. Para acceder a esta función hay que utilizar redes de comunicación por las que viaja la información, debiéndose asegurar una seguridad, calidad, inexistencia de errores, rapidez, etc.
En la figura 4 vemos cómo se combinan estos tres elementos soporte de las TIC para proporcionar al usuario servicios a través de las aplicaciones. La capa de aplicaciones es una integración adecuada de tecnologías dispuestas de forma que el acceso y uso de los servicios sea intuitivo y sencillo para el usuario, de manera que le abstraiga de la complejidad tecnológica residente en el servicio.
Figura 4. Los componentes base de las TIC
La Microelectrónica
La tecnología microelectrónica estudia cómo dotar a un circuito o asociación de circuitos agrupados (encapsulados) en una única unidad física, de una mayor velocidad de proceso ocupando el mínimo volumen y un coste aceptable, con ciertos compromisos de consumo energético.
Los avances en microelectrónica han permitido la integración a gran escala de circuitos en un solo chip, proporcionando componentes hardware cada vez más potentes y de menor coste. El chip es la unidad mínima físicamente inseparable de procesamiento de información, estando internamente constituido por millones de componentes elementales como transistores, resistencias, condensadores, etc., cuya asociación y configuración mediante conexiones en un modo apropiado proporciona la funcionalidad específica del circuito.
Por tanto, los criterios que orientan la microelectrónica son:
La escala de integración, relacionada con el espesor y la longitud del chip. Actualmente estamos hablando de un tamaño de las pistas que interconectan los componentes de 0,8 micras (un cabello tiene un grosor de 60 micras).
La velocidad de conmutación que permite realizar operaciones complejas en tiempos reducidos.
El consumo energético para conseguir terminales portátiles de poco peso (menor capacidad requerida de las baterías) y fiabilidad.
El coste que haga viable la producción elevada.
La producción de chips se realiza bajo economías de escala, en un mundo que consume grandes cantidades de chips derivado de la elevada dependencia de nuestro sistema socioeconómico de los componentes microelectrónicos. Es por ello por lo que las principales industrias de microelectrónica están sometidas a una evolución vertiginosa para la mejora de las prestaciones de sus componentes, requiriendo ello unas elevadas inversiones en Investigación y Desarrollo (I+D) y en montaje de nuevas plantas de producción. Existe una ley empírica que enuncia que la complejidad de un circuito se duplica cada dos años, si bien ya se está llegando a escalas de integración donde la rapidez del aumento es menor.
Los componentes electrónicos cada vez son más digitales y menos analógicos. Las características de un chip viene determinadas por el tipo de señales que puede manejar, esto es, hay circuitos analógicos y digitales. Para una misma función, en general, es más fácil realizarla con un circuito digital que con uno analógico, si bien hay áreas dónde, o bien por la potencia de las señales manejadas o bien por su ancho de banda, la electrónica analógica sigue imperando; ejemplos puede ser la televisión o la electrónica de control de máquinas eléctricas. Los circuitos analógicos son más sensibles a la temperatura que los digitales, menos fiables, requieren ajustes una vez fabricados y por esto último, las economías de escala que se consiguen son inferiores. Salvo en la electrónica de potencia, con las nuevas técnicas de proceso de señal y la mayor rapidez de los circuitos, se está imponiendo la electrónica digital, incluso en la televisión con el estándar digital en fase de desarrollo e implantación.
La combinación de estos componentes y el concurso de otras tecnologías, en particular las magnéticas, para almacenamiento y recuperación de información, y las ópticas, con amplias aplicaciones, permite construir el hardware de los equipos y sistemas electrónicos que se dirigen a distintos segmentos de mercado, de los que destacan cuatro:
Hardware Informático
El hardware diseñado para la informática (computing) es un amplio conjunto de componentes, subsistemas y sistemas que se integran en los equipos informáticos.
Hardware de Comunicaciones
En este grupo se incluye la microelectrónica que incorporan los equipos y sistemas de telecomunicación que operan en las distintas redes de los operadores de telecomunicación. Son componentes electrónicos para transmisores, receptores, equipos de comunicaciones y de conmutación, etc.
Hardware de la Electrónica de Consumo
Comprende los componentes de los equipos dirigidos al mercado de gran consumo caracterizado por economías de escala. Incluye equipos receptores de TV, videos, equipos Hi-Fi, radio, etc.
Hardware de Electrónica Profesional
La electrónica profesional se emplea en aplicaciones específicas, dirigidas a un cliente profesional, como electrónica industrial o de defensa, electromedicína, instrumentación, audiovisual profesional, etc.
Los sectores de las TIC se han digitalizado, como consecuencia de la amplia utilización de componentes microelectrónicos. Una vez realizada la transición de lo analógico a lo digital, las industrias que han experimentado un proceso de digitalización en sus tecnologías base, emergen con mayor capacidad de crecimiento, potencial de mercado y satisfacción de los clientes.
El Software
El software o soporte lógico es el conjunto de instrucciones escritas en lenguajes de programación y traducidas posteriormente a dígitos binarios para que sean entendidas por el hardware. Está presente en todos las funcionalidades del proceso de la información, pero especialmente en el tratamiento de la información. El hardware sólo entiende un lenguaje que es el de las señales eléctricas en forma de tensiones eléctricas, por lo que es necesario abstraer de esta complejidad al hombre y poner a su disposición elementos más cercanos a sus formas de expresión y razonamiento.
La tecnología software está presente en todos los procesos de información, ya que dichas funciones son realizadas cada vez con mayor intensidad por ordenadores. Los distintos componentes bases del software son:
Sistemas Operativos: Para el control de las complejas arquitecturas que pueden construirse con los componentes microelectrónicos y facilitar interfaces amigables con el usuario.
Middleware: Es la parte de la arquitectura encargada de abstraer a las aplicaciones de los detalles de las plataformas de explotación, mediante las Application Programs Interfaces (APIs).
Cliente/Servidor: La arquitectura cliente/servidor reparte la carga de trabajo entre la estación de usuario y la estación central.
Bases de Datos: Para el manejo, manipulación y administración de información.
Programas de Aplicación: Software para la realización de tareas variadas como puedan ser hojas de cálculo, proceso de textos, aplicaciones de gestión comercial, científicas, de diseño, etc.
Lenguajes de Programación y Herramientas para la Ingeniería Software: Conjunto de lenguajes y herramientas de ayuda al desarrollo de la realización de aplicaciones específicas.
El software está jugando un papel cada vez más innovador en la Sociedad de la Información, posibilitando soluciones a las empresas e introduciendo cambios significativos en los comportamientos de los usuarios finales, tanto en casa, como en el trabajo.
Las TIC se caracterizan porque, conforme avanza su desarrollo, la componente software constituye un porcentaje mayor del valor añadido incorporado a los productos. Así, por ejemplo, se calcula que el software constituye el 80% del coste de las infraestructuras de telecomunicaciones.
Las Infraestructuras de Telecomunicaciones
Las infraestructuras de telecomunicaciones transportan la información desde un punto a otro, mediante un conjunto de equipos y medios de acceso, transmisión y conmutación. Proporcionan la capacidad necesaria para mantener una comunicación, ya sea ésta en forma de voz, datos o imágenes. Esta definición incluye todas las necesidades que impone una comunicación, como son tener acceso a la red de comunicación, transportar la información y poner en comunicación al emisor y al receptor. Todo ello dentro de un marco de operación de distintos servicios que se basan en iguales o distintas redes y requiere su interconexión.
Los conceptos fundamentales en telecomunicaciones (figura 5) son:
El acceso a las redes mediante la red de acceso.
La señalización entre el terminal y la red para conocer su estado, tarificar y encaminar la llamada.
Seleccionar entre los múltiples caminos aquél que comunica al emisor con el receptor mediante la conmutación.
Transportar eficientemente la información mediante la transmisión.
El acceso proporciona la conexión a las redes que prestan los servicios de telecomunicaciones. El acceso tiene como función principal recoger las señales que emite nuestro terminal y entregarselas a la red a través de un medio de acceso y viceversa, recibir la señales que la red recoge del comunicante y entregarselas a nuestro receptor. Esta función de acceso se completa con la central local, que toma la decisión sobre a qué órgano de la red se envía nuestra petición de servicio para su adecuado tratamiento. El medio de acceso más elemental está consituido por un par de hilos de cobre que conecta nuestro teléfono con nuestra central telefónica local, si bien existen otros con mayor ancho de banda -la fibra óptica o el cable coaxial- o con movilidad -acceso radioeléctrico-.
Una vez que se accede a la red, tiene que entablarse un diálogo -la señalización y numeración- entre el terminal y la red, de modo que ésta conozca el servicio solicitado y lo que es más importante, la red tiene que dirigir la información al punto destino entre los millones de destinos que puede haber apoyandose en la conmutación y en la transmisión.
La conmutación se encarga de conectar los puntos origen y destino de una forma progresiva y transparente al usuario. Para ello, estudia la ruta óptima que conecta ambos puntos y va solicitando a las distintas centrales de tránsito del camino elegido una conexión que le vaya acercando al destino. Una vez llegado al destino requiere una conmutación local que le conecte físicamente al par de hilos de acceso del receptor.
Figura 5. Conceptos de Telecomunicaciones
La transmisión, por su parte, proporciona el soporte físico sobre el que viaja la información. La conexión entre centrales se realiza mediante los medios de transmisión que concentran cientos de llamadas procedentes de esa central y las transporta por un único cable. La transmisión tiene como objetivos el transporte de información con costes bajos y a la mayor velocidad posible. Ambos objetivos se consiguen utilizando medios de transmisión de alta capacidad basados en un portador que introduzca economías de escala. La fibra óptica es el portador por excelencia, ya que permite transportar cientos de miles de conversaciones telefónicas simultáneas por un único hilo. El coste unitario del circuito vocal desciende drásticamente conforme vamos aprovechando al máximo la capacidad máxima del hilo de fibra óptica. Los medios de transmisión típicos son el cable coaxial, el cable de fibra óptica, los radioenlaces y cables de pares apantallados.
La interconexión de redes se ha convertido en uno de los cuellos de botella para la difusión de las TIC. Históricamente han existido dos entornos de difusión de redes de comunicaciones incompatibles entre sí. El entorno local, compuesto por las redes de ordenadores de las organizaciones empresariales y el entorno de las telecomunicaciones públicas con redes especializadas para cada servicio. Afortunadamente esta situación esta cambiando en estos últimos años gracias a los avances en la estandarización y al despliegue de la Red de Servicios Integrados de los operadores, la cual permite satisfacer las distintas necesidades de comunicación.
EL SECTOR MULTIMEDIA
El desarrollo tecnológico y las posibilidades de los nuevos productos a que da lugar, apuntan actualmente hacia una convergencia entre los sectores de las telecomunicaciones, la informática y el audiovisual. Esta convergencia permite definir un nuevo sector que agrupa todas estas líneas de actividad orientadas en su conjunto al manejo de información en cualquiera de sus formas.
Este nuevo sector, el sector multimedia, se caracteriza por la posibilidad de acceder y usar información digitalizada de todo tipo (voz, datos e imágenes) en cualquier momento y en cualquier lugar. Como se desprende de esta definición, no formal, el multimedia representa una nueva generación de servicios, e implica tecnologías hasta ahora diferentes.
Cada uno de los sectores que convergen en el sector multimedia han evolucionado rápidamente en los últimos años, teniendo esta evolución en común para los tres sectores, el hecho de estar basadas en la digitalización de sus tecnologías. No obstante, es preciso que alcancen su fase de maduración mediante la mejora de sus prestaciones y la reducción de costes, de forma que sea económicamente viable para su implantación generalizada.
La convergencia de sectores y sus tecnologías en un nuevo mercado de aplicaciones y servicios ha dado origen al nuevo sector multimedia. Las distintas empresas de cada uno de los sectores, que inicialmente actuaban en sus respectivos sectores, están buscando alianzas con empresas de los otros sectores para adquirir sus tecnologías y experiencia e integrarlas para la creación de nuevos negocios.
El factor más importante de cara al usuario, excluyendo consideraciones económicas, es la facilidad de uso y acceso a la información. El usuario utiliza los servicios multimedia en la medida en que los servicios que se le proporcionan sean más atractivos por este nuevo medio que por cualquier otro convencional y siempre que el acceso a la información se realice de manera fácil y ágil. Esto exige la utilización de la denominada plataforma de usuario que abstrae al usuario de la complejidad tecnológica residente en el servicio avanzado multimedia, mediante un terminal que procesa los distintos tipos de información y al que accede a través de una interfaz de fácil manejo. Esto es posible debido a los avances en la microelectrónica y en la tecnología software.
Por tanto, los tres factores motores del desarrollo de los servicios multimedia son (figura 6):
La digitalización
La convergencia de tecnologías y mercados
El desarrollo de la plataforma de usuario
Los agentes del sector multimedia está formado por empresas de los tres sectores y por otras pertenecientes al sector multimedia, surgidas como nuevas empresas o como alianzas o fusiones. La estructura del mercado es la siguiente:
Informática: proveedores de software y hardware informático.
Telecomunicaciones: proveedores de redes y servicios de comunicaciones.
Audiovisual: difusores de televisión, radiodifusores y proveedores de contenidos.
Multimedia: plataforma de usuario y proveedores de servicios avanzados multimedia, como televisión interactiva, vídeo bajo demanda, teleeducación, etc. Los cuales requieren la integración de las distintas tecnologías.
Figura 6. La Convergencia Sectorial en el Multimedia
No obstante, la convergencia de tecnologías no siempre se ha traducido en convergencias de mercados como ha sucedido con la telemática, la convergencia tecnológica entre informática y telecomunicaciones. La telemática ha fracasado estrepitosamente en todos los intentos de entrada de las principales empresas de informática en el mercado de telecomunicaciones y viceversa. Como consecuencia han aparecido dos visiones distintas de la telemática:
La procedente del mundo de la informática, basada en sistemas propietarios y aplicaciones a medida.
La procedente del mundo de las telecomunicaciones, basada en los servicios públicos transaccionales (Internet, correo electrónico, facsímil, videotex, transferencia electrónica de fondos etc.).
En definitiva, los operadores de telecomunicación se limitan a dar el soporte necesario para realizar la transferencia de datos entre ordenadores y a facilitar las líneas de acceso a Internet y a las bases de datos. Por su parte, la informática se limita a desarrollar las aplicaciones que requieren los nuevos servicios transaccionales. Pero ninguna de ellas ha conseguido invadir el mercado del otro.
No obstante, este paradigma del fracaso de la convergencia de mercados puede cambiar debido a Internet. El fenómeno Internet está abriendo nuevos mercados a los operadores tradicionales de telecomunicación al ofrecer dentro de sus servicios básicos el acceso a Internet y el correo electrónico mediante redes creadas ex-profeso para captar este mercado. Consecuencia de ello, algunas operadoras está creando unidades de negocio especializadas en desarrollo y consultoría de servidores corporativos basados en World Wide Web (WWW), invadiendo de este modo el terreno natural de las empresas informáticas. En realidad, se están dando esquemas de competencia y colaboración simultánea entre operadoras de telecomunicación y empresas informáticas, mediante el desarrollo de servidores en las plataformas de los suministradores de equipos informáticos. El caso de la red Infovía/Internet en España es un ejemplo de esto, mediante alianzas entre Telefónica de España, Microsoft, Netscape o desarrollos para plataformas Sun o Silicon Graphics.
BIBLIOGRAFÍA
[1] Varios Autores, Formación de técnicos e investigadores en tecnologías de la información, Los Libros de Fundesco, Madrid, 1986.
FASE I
ÁREA DE TELECOMUNICACIONES
MODULO 1: INTRODUCCIÓN A LAS TELECOMUNICACIONES
TEMA 1: CONCEPTO DE TECNOLOGÍAS DE LA INFORMACIÓN Y LAS COMUNICACIONES
1. INTRODUCCIÓN 12. CONCEPTO DE TIC 23. LOS COMPONENTES BASE DE LAS TIC 53.1 La Microelectrónica 63.2 El Software 83.3 Las Infraestructuras de Telecomunicaciones 94. EL SECTOR MULTIMEDIA 115. BIBLIOGRAFÍA 14
Warning:
JavaScript is turned OFF. None of the links on this page will work until it is reactivated.
If you need help turning JavaScript On, click here.
Este Cmap, tiene información relacionada con: características de las TIC, características tecnológicas como formalismo, POTENCIA APRENDIZAJE AUTÓNOMO creando posibilidad de conocer y analizar los procesos de decisión, POTENCIA APRENDIZAJE AUTÓNOMO creando posibilidad de presentar información multimedia, ajustándola a cada objetivo y destinatario específico., hipermedia significa presentación simultánea y radial de la información, formalismo donde deben seguirse secuencias de proced. bien definidas con el ordenador, características tecnológicas como interactividad, multimedia permite presentar información a través de escritura, sonido imágenes, ilustraciones, gráficos, etc, POTENCIA APRENDIZAJE AUTÓNOMO creando posibilidad de reflexionar sobre los propios procesos de aprendizaje, POTENCIA APRENDIZAJE AUTÓNOMO creando posibilidad de enfrentarse a fenómenos simulados que se transforman en el tiempo de manera similar a la realidad, dinamismo significa capacidad de transmitir información dinámica, características tecnológicas como multimedia, interactividad implica interacción entre el usuario y la informac. de la pantalla, características tecnológicas como dinamismo, características tecnológicas como hipermedia, POTENCIA APRENDIZAJE AUTÓNOMO creando posibilidad de planificar, explicitar y revisar las acciones a realizar con pc, LAS TIC poseen características tecnológicas
Desarrollo de las TIC en la Educación Venezolana
El presente foro busca un análisis del desarrollo de las Tecnologías de Información y Comunicaciones en el proceso educativo venezolano.
Desarrollo de las TIC en la Educación Venezolana TICS EN EL PROCESO EDUCATIVO VENEZOLANO- DESARROLLO. PARTICIPA CON TU INTERVENCIÓN.
* E-mail:
* Password:
Registrarse
Presentación
Miembros
Imágenes
¿Has olvidado tu Password?

Lista de mensajes




Anuncios Google
Mercados Financieros Productos Educativos Distribuidor Independiente www.minegociomti.com
Docentes Innovadores.net Bienvenidos al sitio sobre TICs más potente de Latinoamérica. www.docentesinnovadores.net
Modelos Educativos Diplomado Virtual Edgar Morin Desarrollo Curricula Compleja www.DesarrolloCurricular.org



Autor
Mensaje
JAS y MGM - Equipo Nro. 5

Mensajes: 1
Registrado: Octubre/2008
Estado: Off-line
Grupo: Nuevo usuario



TICS EN EL PROCESO EDUCATIVO VENEZOLANO
06/Octubre/2008 - 02:20
Las Tecnologías de Información y Comunicaciones (TIC)
en el proceso educativo venezolano.


De acuerdo a la Investigación de Kelly K, en el año 2000 con niños de 4 y 5 años, se puede concluir que los niños muestran en mismo interés en trabajar con la computadora al igual que el período de juego libre dentro de las aulas preescolares. En este sentido se logra familiar a los niños con la tecnología desde la etapa inicial de aprendizaje-enseñanza es un logro significativo.

Como se puede observar en el video facilitado por nuestras compañeras de estudio La Fundación Discar promueve un Proyecto de raíces internacionales adaptado a Venezuela denominado El Kidsmart; el cual consiste en un proyecto Educativo para niños con problemas de aprendizaje, llevan al niño a familiarizarse con la computadora usando el mouse, el teclado, la pantalla, a través de juegos didácticos ( figuritas animadas) para de esta forma hacerla atractiva para los niños, al mismo tiempo que se logra en objetivo principal de una manera sencilla y fácil.



En la actualidad las TIC se han incorporado dentro del proceso educativo, exigiendo cada día más la actualización de los docentes para cubrir las expectativas de las nuevas generaciones, siendo la Internet el medio de comunicación mas utilizado y mas poderoso, en este sentido se hace necesario la orientación a los alumnos para el uso racional y adecuado de este medio.

De acuerdo a resultados publicados por Datanálisis, Venezuela ha presentado un incrementado significativo en el uso de las TIC, especialmente la Internet, sin embargo existe otros países de Latinoamérica que sobrepasan a Venezuela de forma importante, en este sentido se hace necesario el apoyo económico del sector publico y privado al sistema educativo para fortalecer y sacar el mayor provecho a la Las Tecnologías de Información y Comunicaciones (TIC).




Artículo analizado por Equipo Nro. 6
Milagros Guerrero
Javier Sánchez
Emil Estrella

Mensajes: 3
Registrado: Octubre/2008
Estado: Off-line
Grupo: Administrador del foro



TICS EN EL PROCESO EDUCATIVO VENEZOLANO- DESARROLLO. PARTICIPA CON TU INTERVENCIÓN.
05/Octubre/2008 - 05:53
“Según Tavernier (1998) nunca es demasiado pronto para aprender a pensar y bajo formas y con instrumentos distintos, adaptados a la edad y las motivaciones, la informática puede y debe encontrar su lugar a todos los niveles de la enseñanza, desde la escuela infantil.”

En una investigación realizada por Kelly, K. (2001) con niños de 4 y 5 años, en la cual se buscaba comparar el lenguaje expresivo de los niños mientras utilizaban el área de computación y mientras se encontraban en el período de juego libre dentro de aulas preescolares evidenció que no se encontraban diferencias en la cantidad de lenguaje (MLU) utilizado por los niños en ambas situaciones. Por ende los resultados indican que el uso de las computadoras como una actividad auto-seleccionada por los niños, puede ser tan enriquecedora del lenguaje como otros centros tradicionales de aprendizaje dentro de las aulas preescolares. La incorporación de la tecnología en las aulas preescolares debe realizarse con prácticas apropiadas donde el computador sea un componente integral e inevitable del currículo. El múltiple desarrollo de software educativo ha sido de gran apoyo para la introducción de las nuevas tecnologías a la escuela y particularmente a la educación preescolar; tales instrumentos son: Cds recreativos; Cds Informativos, softwares en la red, es por ello que el uso de las TICS en educación preescolar demanda de los docentes, el conocimiento, evaluación y el uso creativo de los mismos para su integración al currículo.
En Venezuela encontramos la presencia de franquicias que ofrecen asesoría para la incorporación de la tecnología, compañías venezolanas que también ofrecen asesorías para la incorporación de la tecnología, proyectos internacionales adaptados a Venezuela como el Kidsmart y proyectos para la incorporación de la tecnología nacidos desde los propios centros preescolares para cubrir necesidades propias de los centros o como procesos innovadores.
Ahora bien, según Datanálisis, Venezuela tenía para el segundo semestre de 1999, 207.000 usuarios de Internet. Para el primer semestre de 2000 esa cifra subió a 526.000, y para el segundo semestre de 2000 llegó a 817.000, lo cual representó un crecimiento del 300%. Para el 2001, 1.200.000 personas eran usuarios de Internet (4,8% de la población). A pesar del importante crecimiento experimentado en ese período, Venezuela está por debajo de los niveles alcanzados en Chile (11,6%), Uruguay (11,1%), Argentina (10,38%), Brasil (6,98%), y Costa Rica (6,74%). Estos porcentajes representan una muestra del acceso a las TIC en Venezuela en los últimos años, especialmente utilizando el Internet no sólo como medio de comunicación, sino informativo y pedagógico.
Sin duda, el Estado ha invertido recursos también a nivel de educación superior para formar una generación de profesionales calificados que atienda este sector.




La historia ha demostrado que el uso de la informática y especialmente el auge y desarrollo de las telecomunicaciones van a la vanguardia con todos los procesos que se desarrollan y que tienen su aplicación en los diferentes campos del saber. En la educación se percibe el avance y el desarrollo de nuevas modelos, nuevas técnicas y nuevas metodologías que hacen que el saber enseñar y el aprender repercutan directamente en nuevos procesos que redunden en beneficios de los nuevos actores de la educación; se percibe el papel que las TICS juegan en el proceso de transformación de nuevos procedimientos de encaminar la educación a otros modelos y técnicas para que los alumnos desarrollen su proceso de autoformación y profesionalización, de acuerdo a sus predilecciones en los programas académicos que se oferten en los Centros Regionales de Educación.
Definitivamente, en el desarrollo y avance en las comunicaciones, se muestra el Internet como una herramienta valiosa y poderosa que en tiempos actuales ha incidido profundamente en el desarrollo de la educación y en la transformación de los procesos educativos. Implementar nuevos modelos pedagógicos a través del uso de herramientas informáticas virtuales, tiene que ver en gran parte con los servicios que brinda o que ha brindado a través de su origen. Servicios como el chat, la audio conferencia, la videoconferencia, voz IP a través de la red y el correo electrónico es una garantía de acercamiento entre las personas, el envío y recepción de archivos de forma síncrona nos muestran un sin número de componentes a través de los cuales la educación se ha perfeccionado y ha permitido que mas actores se involucren dentro de estos procesos.
El avance de las TICS en los procesos de enseñanza por parte del docente. El nuevo modelo le exige estar actualizado y capacitado constantemente para el desarrollo de estrategias y de habilidades que le permitan llegar de forma directa y pueda transmitir al estudiante los conocimientos y saberes, perfeccionar el talento y descubrir aptitudes que permitan perfeccionar facultades para la evolución de la inteligencia.
Se puede concluir que los avances en los medios de comunicación y especialmente el Internet son grandes instrumentos para la transformación de modelos pedagógicos y de los procesos educativos, ya que permite el acceso a la información y a los medios educativos para el desarrollo integral de las personas.

Venezuela ha dado pasos importantes en materia de Tecnología de Información y Comunicaciones, los cuales han impactado profundamente en el proceso educativo venezolano, sin embargo aún falta utilizar recursos adecuados y plataformas idóneas para explotar las innovaciones tecnológicas a favor de la educación.








Editado por: Emil Estrella (05/Octubre/2008 - 05:58)




Anuncios Google
Mercados Financieros Productos Educativos Distribuidor Independiente www.minegociomti.com
Docentes Innovadores.net Bienvenidos al sitio sobre TICs más potente de Latinoamérica. www.docentesinnovadores.net
Modelos Educativos Diplomado Virtual Edgar Morin Desarrollo Curricula Compleja www.DesarrolloCurricular.org

Usuarios activos
1 usuarios activos: 0 miembros y 1 huespedes en el foro.


Reglas de mensaje
Tú puedes escribir nuevos temasTú puedes responder a los temasTú puedes adjuntar archivosTú no puedes editar tus mensajes
Software libre, (en inglés free software, aunque en realidad esta denominación también puede significar gratis, y no necesariamente libre, por lo que se utiliza el hispanismo libre software también en inglés) es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, modificado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, cambiar y mejorar el software; de modo más preciso, se refiere a cuatro libertades de los usuarios del software: la libertad de usar el programa, con cualquier propósito; de estudiar el funcionamiento del programa, y adaptarlo a las necesidades; de distribuir copias, con lo cual se puede ayudar a otros, y de mejorar el programa y hacer públicas las mejoras, de modo que toda la comunidad se beneficie (para la segunda y última libertad mencionadas, el acceso al código fuente es un requisito previo).[1]
El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a "software gratuito" (denominado usualmente freeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa.
Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor han expirado, tras un plazo contado desde la muerte de este, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público.
Contenido
[ocultar]
1 Historia
2 Libertades del software libre
3 Tipos de licencias
3.1 Licencias GPL
3.2 Licencias estilo BSD
3.3 Licencias estilo MPL y derivadas
3.4 Copyleft
4 Comparación con el software de código abierto
5 Modelo de negocio
6 Significancia política
7 Seguridad relativa
8 Software libre en la administración pública
9 Motivaciones del software libre
10 Regulación
10.1 España
11 Véase también
12 Referencias
13 Enlaces externos
[editar] Historia


Richard Stallman, creador de los conceptos Free Software, y fundador de la FSF
Entre los años 60 y 70 del Siglo XX, el software no era considerado un producto sino un añadido que los vendedores de las grandes computadoras de la época (las mainframes) aportaban a sus clientes para que éstos pudieran usarlos. En dicha cultura, era común que los programadores y desarrolladores de software compartieran libremente sus programas unos con otros. Este comportamiento era particularmente habitual en algunos de los mayores grupos de usuarios de la época, como DECUS (grupo de usuarios de computadoras DEC). A finales de los 70, las compañías iniciaron el hábito de imponer restricciones a los usuarios, con el uso de acuerdos de licencia.
Allá por el 1971, cuando la informática todavía no había sufrido su gran boom, las personas que hacían uso de ella, en ámbitos universitarios y empresariales, creaban y compartían el software sin ningún tipo de restricciones.
Con la llegada de los años 80 la situación empezó a cambiar. Las computadoras más modernas comenzaban a utilizar sistemas operativos privativos, forzando a los usuarios a aceptar condiciones restrictivas que impedían realizar modificaciones a dicho software.
En caso de que algún usuario o programador encontrase algún error en la aplicación, lo único que podía hacer era darlo a conocer a la empresa desarrolladora para que esta lo solucionara. Aunque el programador estuviese capacitado para solucionar el problema y lo desease hacer sin pedir nada a cambio, el contrato le impedía que mejorase el software.
El mismo Richard Stallman cuenta que por aquellos años, en el laboratorio donde trabajaba, habían recibido una impresora donada por una empresa externa. El dispositivo, que era utilizado en red por todos los trabajadores, parecía no funcionar a la perfección, dado que cada cierto tiempo el papel se atascaba. Como agravante, no se generaba ningún aviso que se enviase por red e informase a los usuarios de la situación.
La pérdida de tiempo era constante, ya que en ocasiones, los trabajadores enviaban por red sus trabajos a imprimir y al ir a buscarlos se encontraban la impresora atascada y una cola enorme de trabajos pendientes. Richard Stallman decidió arreglar el problema, e implementar el envío de un aviso por red cuando la impresora se bloqueara. Para ello necesitaba tener acceso al código fuente de los controladores de la impresora. Pidió a la empresa propietaria de la impresora lo que necesitaba, comentando, sin pedir nada a cambio, qué era lo que pretendía realizar. La empresa se negó a entregarle el código fuente.
En ese preciso instante, Richard Stallman se vio en una encrucijada: debía elegir entre aceptar el nuevo software privativo firmando acuerdos de no revelación y acabar desarrollando más software privativo con licencias restrictivas, que a su vez deberían ser más adelante aceptadas por sus propios colegas.
Con este antecedente, en 1984, Richard Stallman comenzó a trabajar en el proyecto GNU, y un año más tarde fundó la Free Software Foundation (FSF). Stallman introdujo la definición de free software y el concepto de "copyleft", que desarrolló para otorgar libertad a los usuarios y para restringir las posibilidades de apropiación del software.[2]
[editar] Libertades del software libre
De acuerdo con tal definición, el software es "libre" si garantiza las siguientes libertades:[1]
Libertad 0: la libertad de usar el programa, con cualquier propósito.
Libertad 1: la libertad de estudiar cómo funciona el programa y modificarlo, adaptándolo a tus necesidades.
Libertad 2: la libertad de distribuir copias del programa, con lo cual puedes ayudar a tu prójimo.
Libertad 3: la libertad de mejorar el programa y hacer públicas esas mejoras a los demás, de modo que toda la comunidad se beneficie.
Las libertades 1 y 3 requieren acceso al código fuente porque estudiar y modificar software sin su código fuente es muy poco viable.
Ciertos teóricos usan este cuarto punto (libertad 3) para justificar parcialmente las limitaciones impuestas por la licencia GNU GPL frente a otras licencias de software libre (ver Licencias GPL). Sin embargo el sentido original es más libre, abierto y menos restrictivo que el que le otorga la propia situación de incompatibilidad, que podría ser resuelta en la próxima versión 3.0 de la licencia GNU GPL, causa en estos momentos graves perjuicios a la comunidad de programadores de software libre, que muchas veces no pueden reutilizar o mezclar códigos de dos licencias distintas, pese a que las libertades teóricamente lo deberían permitir.
En el sitio web oficial de OSI está la lista completa de las licencias de software libre actualmente aprobadas y tenidas como tales.[3]
El término software no libre se emplea para referirse al software distribuido bajo una licencia de software más restrictiva que no garantiza estas cuatro libertades. Las leyes de la propiedad intelectual reservan la mayoría de los derechos de modificación, duplicación y redistribución para el dueño del copyright; el software dispuesto bajo una licencia de software libre rescinde específicamente la mayoría de estos derechos reservados.
La definición de software libre no contempla el asunto del precio; un eslogan frecuentemente usado es "libre como en libertad, no como en cerveza gratis" o en inglés "Free as in freedom, not as in free beer" (aludiendo a la ambigüedad del término inglés "free"), y es habitual ver a la venta CDs de software libre como distribuciones GNU/Linux. Sin embargo, en esta situación, el comprador del CD tiene el derecho de copiarlo y redistribuirlo. El software gratis puede incluir restricciones que no se adaptan a la definición de software libre —por ejemplo, puede no incluir el código fuente, puede prohibir explícitamente a los distribuidores recibir una compensación a cambio, etc—.
Para evitar la confusión, algunas personas utilizan los términos "libre" (software libre) y "gratis" (software gratis) para evitar la ambigüedad de la palabra inglesa "free". Sin embargo, estos términos alternativos son usados únicamente dentro del movimiento del software libre, aunque están extendiéndose lentamente hacia el resto del mundo. Otros defienden el uso del término open source software (software de código abierto, también llamado de fuentes abiertas). La principal diferencia entre los términos "open source" y "free software" es que éste último tiene en cuenta los aspectos éticos y filosóficos de la libertad, mientras que el "open source" se basa únicamente en los aspectos técnicos.
En un intento por unir los mencionados términos que se refieren a conceptos semejantes, se está extendiendo el uso de la palabra "FLOSS" con el significado de "Free - Libre - Open Source Software" e, indirectamente, también a la comunidad que lo produce y apoya.
[editar] Tipos de licencias
Una licencia es aquella autorización formal con carácter contractual que un autor de un software da a un interesado para ejercer "actos de explotación legales". Pueden existir tantas licencias como acuerdos concretos se den entre el autor y el licenciatario. Desde el punto de vista del software libre, existen distintas variantes del concepto o grupos de licencias:
[editar] Licencias GPL
Artículo principal: Licencias GPL
Una de las más utilizadas es la Licencia Pública General de GNU (GNU GPL). El autor conserva los derechos de autor (copyright), y permite la redistribución y modificación bajo términos diseñados para asegurarse de que todas las versiones modificadas del software permanecen bajo los términos más restrictivos de la propia GNU GPL. Esto hace que sea imposible crear un producto con partes no licenciadas GPL: el conjunto tiene que ser GPL.
Es decir, la licencia GNU GPL posibilita la modificación y redistribución del software, pero únicamente bajo esa misma licencia. Y añade que si se reutiliza en un mismo programa código "A" licenciado bajo licencia GNU GPL y código "B" licenciado bajo otro tipo de licencia libre, el código final "C", independientemente de la cantidad y calidad de cada uno de los códigos "A" y "B", debe estar bajo la licencia GNU GPL.
En la práctica esto hace que las licencias de software libre se dividan en dos grandes grupos, aquellas que pueden ser mezcladas con código licenciado bajo GNU GPL (y que inevitablemente desaparecerán en el proceso, al ser el código resultante licenciado bajo GNU GPL) y las que no lo permiten al incluir mayores u otros requisitos que no contemplan ni admiten la GNU GPL y que por lo tanto no pueden ser enlazadas ni mezcladas con código gobernado por la licencia GNU GPL.
En el sitio web oficial de GNU hay una lista de licencias que cumplen las condiciones impuestas por la GNU GPL y otras que no.[4]
Aproximadamente el 60% del software licenciado como software libre emplea una licencia GPL.
[editar] Licencias estilo BSD
Artículo principal: Licencia BSD
Llamadas así porque se utilizan en gran cantidad de software distribuido junto a los sistemas operativos BSD. El autor, bajo tales licencias, mantiene la protección de copyright únicamente para la renuncia de garantía y para requerir la adecuada atribución de la autoría en trabajos derivados, pero permite la libre redistribución y modificación, incluso si dichos trabajos tienen propietario. Son muy permisivas, tanto que son fácilmente absorbidas al ser mezcladas con la licencia GNU GPL con quienes son compatibles. Puede argumentarse que esta licencia asegura “verdadero” software libre, en el sentido que el usuario tiene libertad ilimitada con respecto al software, y que puede decidir incluso redistribuirlo como no libre. Otras opiniones están orientadas a destacar que este tipo de licencia no contribuye al desarrollo de más software libre (normalmente utilizando la siguiente analogía: "una licencia BSD es más libre que una GPL si y sólo si se opina también que un país que permita la esclavitud es más libre que otro que no la permite").
[editar] Licencias estilo MPL y derivadas
Artículo principal: Mozilla Public License
Esta licencia es de Software Libre y tiene un gran valor porque fue el instrumento que empleó Netscape Communications Corp. para liberar su Netscape Communicator 4.0 y empezar ese proyecto tan importante para el mundo del Software Libre: Mozilla. Se utilizan en gran cantidad de productos de software libre de uso cotidiano en todo tipo de sistemas operativos. La MPL es Software Libre y promueve eficazmente la colaboración evitando el efecto "viral" de la GPL (si usas código licenciado GPL, tu desarrollo final tiene que estar licenciado GPL). Desde un punto de vista del desarrollador la GPL presenta un inconveniente en este punto, y lamentablemente mucha gente se cierra en banda ante el uso de dicho código. No obstante la MPL no es tan excesivamente permisiva como las licencias tipo BSD. Estas licencias son denominadas de copyleft débil. La NPL (luego la MPL) fue la primera licencia nueva después de muchos años, que se encargaba de algunos puntos que no fueron tenidos en cuenta por las licencias BSD y GNU. En el espectro de las licencias de software libre se la puede considerar adyacente a la licencia estilo BSD, pero perfeccionada.
[editar] Copyleft
Artículo principal: Copyleft
Hay que hacer constar que el titular de los derechos de autor (copyright) de un software bajo licencia copyleft puede también realizar una versión modificada bajo su copyright original, y venderla bajo cualquier licencia que desee, además de distribuir la versión original como software libre. Esta técnica ha sido usada como un modelo de negocio por una serie de empresas que realizan software libre (por ejemplo MySQL); esta práctica no restringe ninguno de los derechos otorgados a los usuarios de la versión copyleft. También podría retirar todas las licencias de software libre anteriormente otorgadas, pero esto obligaría a una indemnización a los titulares de las licencias en uso. En España, toda obra derivada está tan protegida como una original, siempre que la obra derivada parta de una autorización contractual con el autor. En el caso genérico de que el autor retire las licencias "copyleft", no afectaría de ningún modo a los productos derivados anteriores a esa retirada, ya que no tiene efecto retroactivo. En términos legales, el autor no tiene derecho a retirar el permiso de una licencia en vigencia. Si así sucediera, el conflicto entre las partes se resolvería en un pleito convencional.
[editar] Comparación con el software de código abierto
Artículo principal: FOSS - FLOSS


Mapa Conceptual del FLOSS, (Free/Libre Open Source Software).

Este artículo o sección necesita referencias que aparezcan en una publicación acreditada, como revistas especializadas, monografías, prensa diaria o páginas de Internet fidedignas.Puedes añadirlas así o avisar al autor principal del artículo en su página de discusión pegando: {{subst:Aviso referenciasSoftware libre}} ~~~~
Aunque en la práctica el software de código abierto y el software libre comparten muchas de sus licencias, la FSF opina que el movimiento de código abierto es filosóficamente diferente del movimiento del software libre. Apareció en 1998 con un grupo de personas, entre los que cabe destacar a Eric S. Raymond y Bruce Perens, que formaron la Open Source Initiative (OSI). Ellos buscaban darle mayor relevancia a los beneficios prácticos del compartir el código fuente, e interesar a las principales casas de software y otras empresas de la industria de la alta tecnología en el concepto. Mientras que la FSF y Richard Stallman, prefieren plantear el asunto en términos éticos empleando el término Software Libre.
Estos defensores ven que el término "código abierto", en inglés open source, evita la ambigüedad del término en ese idioma que es free en free software. El término "código abierto" fue acuñado por Christine Peterson del think tank Foresight Institute, y se registró para actuar como marca registrada el término en inglés para los productos de software libre.
Mucha gente reconoce el beneficio cualitativo del proceso de desarrollo de software cuando los desarrolladores pueden usar, modificar y redistribuir el código fuente de un programa. (Véase también La Catedral y el Bazar). El movimiento del software libre hace especial énfasis en los aspectos morales o éticos del software, viendo la excelencia técnica como un producto secundario deseable de su estándar ético. El movimiento de código abierto ve la excelencia técnica como el objetivo prioritario, siendo la compartición del código fuente un medio para dicho fin. Por dicho motivo, la FSF se distancia tanto del movimiento de código abierto como del término "Código Abierto" (en inglés Open Source).
Puesto que la OSI sólo aprueba las licencias que se ajustan a la OSD (Open Source Definition, Definición de Código Abierto), la mayoría de la gente lo interpreta como un esquema de distribución, e intercambia libremente "código abierto" con "software libre". Aun cuando existen importantes diferencias filosóficas entre ambos términos, especialmente en términos de las motivaciones para el desarrollo y el uso de tal software, raramente suelen tener impacto en el proceso de colaboración.
Aunque el término "código abierto" elimina la ambigüedad de Libertad frente a Precio (en el caso del Inglés), introduce una nueva: entre los programas que se ajustan a la definición de Código Abierto, que dan a los usuarios la libertad de mejorarlos, y los programas que simplemente tiene el código fuente disponible, posiblemente con fuertes restricciones sobre el uso de dicho código fuente. Mucha gente cree que cualquier software que tenga el código fuente disponible es de código abierto, puesto que lo pueden manipular (un ejemplo de este tipo de software sería el popular paquete de software gratuito Graphviz, inicialmente no libre pero que incluía el código fuente, aunque luego AT&T le cambió la licencia). Sin embargo, mucho de este software no da a sus usuarios la libertad de distribuir sus modificaciones, restringe el uso comercial, o en general restringe los derechos de los usuarios.
[editar] Modelo de negocio
El negocio detras del software libre se caracteriza por la oferta de servicios adicionales al software como: la personalización y/o instalación del mismo, soporte técnico, donaciones, patrocinios; en contraposición al modelo de negocio basado en licencias predominante en el software de código cerrado.[5]
[editar] Significancia política
Una vez que un producto de software libre ha empezado a circular, rápidamente está disponible a un costo muy bajo o sin costo alguno. Al mismo tiempo, su utilidad no decrece. Esto significa que el software libre se puede caracterizar como un bien libre en lugar de un bien económico, si bien eso no significa que no pueda ser comercializable.
Puesto que el software libre permite el libre uso, modificación y redistribución, a menudo encuentra un hogar entre usuarios para los cuales el coste del software no libre es a veces prohibitivo, o como alternativa a la piratería. También es sencillo modificarlo localmente, lo que permite que sean posibles los esfuerzos de traducción a idiomas que no son necesariamente rentables comercialmente.
La mayoría del software libre se produce por equipos internacionales que cooperan a través de la libre asociación. Los equipos están típicamente compuestos por individuos con una amplia variedad de motivaciones, y pueden provenir tanto del sector privado, del sector voluntario o del sector público. Existen muchas posturas acerca de la relación entre el software libre y el actual sistema político-económico:
Algunos consideran el software libre como un competidor contra el centralismo en empresas y gobiernos, una forma de orden espontáneo o de anarquismo práctico.[6]
Algunos consideran el software libre como una expresión del liberalismo económico o del mercado libre. Mientras el copyright es una regulación gubernamental sobre el mercado, el software libre sería un ejemplo de libertad económica y competitividad contra el intervencionismo.
Algunos consideran el software libre como una forma de trabajo colaborativo en un modelo de mercado, tal como se había planteado el cooperativismo.
Algunos comparan el software libre a una economía del regalo, donde el valor de una persona está basado en lo que ésta da a los demás, sin que incurra valor monetario formal de por medio.
Grupos como Oekonux e Hipatia consideran que todo debería producirse de esta forma y que este modelo de producción no se limita a reemplazar el modelo no libre de desarrollo del software. La cooperación basada en la libre asociación puede usarse y se usa para otros propósitos (tales como escribir enciclopedias, por ejemplo).
Hay proyectos de desarrollo con impulso gubernamental que utilizan software libre, así como en proyectos de voluntariado en países del tercer mundo.
Las implicaciones políticas y económicas del software libre, o su afinidad con el antiautoritarismo, es discutida. Mientras para unos estas implicaciones son notorias y representan un factor importante a tomarse en cuenta, para otros si bien podría existir una leve relación, no tiene suficiente relevancia.
[editar] Seguridad relativa
Existe una cierta controversia sobre la seguridad del software libre frente al software no libre (siendo uno de los mayores asuntos la seguridad por oscuridad). Un método usado de forma habitual para determinar la seguridad relativa de los productos es determinar cuántos fallos de seguridad no parcheados existen en cada uno de los productos involucrados. Por lo general los usuarios de este método recomiendan que cuando un producto no proporcione un método de parchear los fallos de seguridad, no se use dicho producto, al menos hasta que no esté disponible un arreglo.
A fecha de Diciembre de 2004 el sitio de seguridad Secunia cuenta cero fallos de seguridad no parcheados (no arreglados aún) para los productos software libre más usados para navegación de internet, productividad de oficina y e-mail -Mozilla Firefox, OpenOffice.org y Mozilla Thunderbird-, en comparación con los varios fallos de seguridad aún no corregidos para cada uno de los tres principales productos no libres equivalentes (hechos por Microsoft) - Internet Explorer, Microsoft Office y Outlook Express.[cita requerida]
Otro ejemplo de SL es GNU/Linux, del cual se cree que es más seguro que Windows debido a la diferencia de usuarios,[cita requerida] sin embargo otros argumentan que la seguridad de este sistema reside en su diseño (vease el llamado principio de Kerckhoff).
[editar] Software libre en la administración pública
Artículo principal: Software libre en la administración pública
Existe una serie de países en los cuales, sus administraciones públicas, han mostrado apoyo al software libre, sea migrando total o parcialmente sus servidores y sistemas de escritorio, sea subvencionándolo. Como ejemplos de ello se tiene a Alemania[7] [8] , Argentina[9] , Brasil[10] [11] , Cuba[12] , Chile[13] , China[14] , Ecuador[cita requerida], España[15] , Francia[16] , México[17] , República Dominicana[18] y Venezuela.[19]
Además de lo anterior, la Administración Publica tiene una cierta función de escaparate y/o guía de la industria que la hace tener un gran impacto, que debería dirigirse a la creación de un tejido tecnológico generador de riqueza nacional. Ésta puede crearse fomentando empresas, cuyo negocio sea en parte el desarrollo de nuevo software libre para la administración, el mantenimiento y la adaptación del existente asimismo auditar el software existente.
Actualmente (2009) el Centro Nacional de Referencia de Aplicación de las TIC basadas en Fuentes Abiertas (CENATIC), ha elaborado un informe junto a la Universidad Rey Juan Carlos (Grupo GsyC/LibreSoft) y Telefónica I+D, con el fin de analizar el estado en que se encuentra el proceso de implantación del software de fuentes abiertas en la Administración Pública española.
[editar] Motivaciones del software libre
• La motivación ética, abanderada por la Free Software Foundation, heredera de la cultura hacker, y partidaria del apelativo libre, que argumenta que el software es conocimiento y debe poderse difundir sin trabas. Su ocultación es una actitud antisocial y la posibilidad de modificar programas es una forma de libertad de expresión.
• La motivación pragmática, abanderada por la Open Source Initiative y partidaria del apelativo abierto, que argumenta ventajas técnicas y económicas, con respecto a evitar una tragedia de los anticomunes mejorando los incentivos.
Aparte de estas dos grandes motivaciones, la gente que trabaja en software libre suele hacerlo por muchas otras razones, que van desde la diversión a la mera retribución económica, que es posible debido a modelos de negocio sustentables.[20]
[editar] Regulación
[editar] España
La Orden EDU/2341/2009, de 27 de agosto, por la que se crea el Centro Nacional de Desarrollo Curricular en Sistemas no Propietarios, tiene como finalidad el diseño, el desarrollo y la promoción de contenidos educativos digitales para colectivos educativos específicos, en el ámbito de las Tecnologías de la Información y la Comunicación, que se centra en promocionar y aplicar estrategias dirigidas a poner a disposición de los centros escolares recursos y contenidos digitales de calidad, desarrollados en software libre.

Plataforma Virtual UNEFA
Usted no se ha autentificado. (Entrar)
Idioma English (en)Español - Internacional (es)

Bienvenid@ a la Plataforma Virtual de la Red Social Educativa de la UNEFA:
Este sistema Web bajo Moodle es un espacio público y gratuito a través del cual puedes ofrecer tu aula virtual como soporte educativo a distancia usando Tecnologías de Información y Comunicación en la Educación. (E-learning, B-learning, CourseWare y otros). Como profesor solo debes:a) Regístrate. b) Inicia sesión. c) Crea tu Aula Virtual.Como estudiante debes:a) Regístrate. b) Inicia sesión. c) Buscar tu Curso y participar.Nuevos cursos 2009, atención ya está disponible la opción para crear tus cursos del semestre 1-2009.Información: en estos momentos estamos teniendo inconvenientes con los correos "yahoo", agradecemos que utilicen otra dirección de correo-e para que puedan recibir los mensajes. 7/05/09¡Bienvenid@!
Categorías
Cursos 2009

Postgrado
9

Pregrado
45

CIU
4

Extensión
2

Cursos 2008

Postgrado
31

Especialización en Gerencia Hospitalaria
9

Pregrado
94

CIU
70

Extensión

martes, 29 de septiembre de 2009

Paráfrasis

*Paráfrasis; Explicación que se hace de un texto, conservando el contenido y cambiando las palabras y extensión del mismo.
-Frase conocida que se reproduce con palabras diferentes.
-Traducción en verso imitando el original lo más posible.
-La paráfrasis es la explicación del contenido de un texto, con el fin de aclararlo en todos sus aspectos y, de esta forma, facilitar su comprensión.
Tipos de Paráfrasis:
*Paráfrasis mecánica. Consiste en sustituir por sinónimos o frases alternas las expresiones que aparezcan en un texto, con cambios sintácticos mínimos. Los participantes en Clasesderazverbal23d refieren que es sustituir por sinónimos las expresiones que aparezcan en un texto.
Se asume que es el resultado de la sustitución de los elementos lingüísticos posible por sinónimos adecuados sin que se produzca alteración en el contenido o significado de la información.
*Paráfrasis constructiva. Consiste en la reelaboración del enunciado, dando origen a otro con características muy distintas, pero conservando el mismo significado. Para los participantes en Clasesderazverbal23d es reelaborar el enunciado dando origen a otro con características muy distintas pero con un mismo significado.
Se asume que se trata de la producción de un texto de forma diferentes pero manteniendo el contenido o significado, su esencia, haciéndolos mas inteligible, claro y preciso.
Su importancia didáctica además se fundamenta en los siguientes aspectos:
1. Con la paráfrasis se ejercita la redacción y es una estrategia para resumir textos de considerable volumen de información, Wikipedia, (2001).
2. Los estudiantes se entrenan en habilidades que luego les permite realizar traducciones de un idioma a otro, Wikipedia, (2001).
3. Sirve para que los alumnos aprendan a hacer prosificación de versos y/o versificación de prosas, Wikipedia, (2001).
4. Es una estrategia eficiente para elevar el nivel de eficacia del estudio y de las investigaciones, opinión compartida por participantes en clasesderazverbal23d extraído el 5 de Mayo del 2007.
5. Al enseñar a los alumnos a realizar paráfrasis se les entrena, entre otras cosas, para escribir o realizar citas contextuales, que posteriormente resulta útil en su futura labor científica Romo, (2003).
6. se entrenan los alumnos para repetir aspectos importantes con sus propias palabras. Explicando lo aprendido a las demás personas o sus compañeros. Geovanini, (1996) profesor en acción tomo 1 p. 26.
En la enseñanza-aprendizaje de la expresión oral y escrita, la paráfrasis es sumamente útil porque desarrolla habilidades intelectuales; los alumnos se entrenan y se preparan para expresarse de forma consciente y segura; tiene potencialidades terapéuticas porque contribuye a erradicar las limitaciones psíquicas, se aplica precisamente para que los alumnos aprendan a expresarse con sus propias palabras, sin imponérseles utilizar un determinado recurso lingüístico, manteniendo la esencia y/o el significado del mensaje o texto
Ejemplos
l Cita Directa- "El plagio se define mejor como una actividad deliberada – la copia consciente del trabajo de otros" (Swales, 1998, p. 78).l Cita Indirecta- Paráfrasis- John Swales ha dicho que el plagio ocurre cuando una persona copia el trabajo de otra y es perfectamente consciente de lo que está haciendo.

...aptitudes verbales, numéricas, mecánicas y espaciales.

...aptitudes verbales, numéricas, mecánicas y espaciales. los test de personalidad son pruebas que tratan de averiguar y definir la forma que tiene de ser los posibles candidatos en cuanto a sus relaciones sociales y por lo tanto vinculadas a su personalidad. estas pruebas muestran el grado de adaptación a los cambios, al aguante de momentos de presion, a definir cuales son sus expectativas, a ver sus diferentes formas de responder a las crisis, ..., y en algunos casos "predicen" la conducta del candidato en su trabajo. se suelen utilizar como complemento a la entrevista propiamente dicha, ya que sirven para indagar mas en algún aspecto que pudo no quedar claro en el desarrollo de la misma y en el cual esta interesado el entrevistador. se recomienda tener la mayor sinceridad al momento de contestar estas preguntas, ya que no hay respuestas "buenas" o "malas", sino lo que se quiere es determinar si se adecua o no al cargo. Hay preguntas de control en estos test, pero en definitiva todas las respuestas son validas, no es cuestión de meditar mucho las contestaciones. los test psicométricos, suelen ser pruebas que resultan de interpretaciones de pruebas numéricas estandarizadas. Suelen ser los mas utilizados en los diferentes procesos de reclutamiento o selección. su formato mas habitual es el de realización de preguntas cerradas (si o no, o uno opción u otra,...). por ultimo, los test proyectivos son los que en exclusiva tratan de la/s interpretación/es que hace un psicólogo. no obstante, y no desde hace mucho tiempo, se esta produciendo en el mundo del rrhh dentro del reclutamiento las realización de selección por competencias.

La actitud, un término definido principalmente desde la Psicología, puede entenderse de diversas formas. Entre ellas, se le considera como la postura que adopta el cuerpo humano según los diferentes movimientos del ánimo, sin embargo, la forma más común de entender aquello que se conoce por actitud es aquella disposición anímica del ser humano expresada de algún modo en particular. Este concepto proviene de la palabra latina “actitud” y, como ya se mencionaba, se define desde la psicología como aquella motivación social de las personas que predisponen su accionar hacia determinadas metas u objetivos. Existen actitudes personales que sólo guardan relación con si mismo, mientras que existen ciertas actitudes sociales que inciden en las conductas de un grupo o colectivo. La actitud se desarrolla, al interior de la Psicología en el campo de la Psicología de la Personalidad y la Psicología Social. Dentro de el contexto de esta última disciplina es que el afamado psicólogo Gordon Allport comenzó sus investigaciones en torno a las actitudes sociales, pero fue gracias a Erich Fromm, cuando en 1940, con la publicación de su obra “El miedo a la libertad”, que dicho concepto logró instalarse como parte fundamental de las teorías de la Personalidad. La actitud que adopta una persona o grupo de individuos depende de muchos factores, depende de las múltiples experiencias y relaciones que hayan ido acumulando a lo largo de su historia de vida. De este modo, las actitudes toman forma a partir del conjunto de creencias que se vaya conformando, comprendiendo por esto a aquella única predisposición a actuar de cierta forma ante ciertas situaciones o circunstancias, como vemos una persona adoptará una actitud particular frente a determinada situación, la que variará de un individuo a otro ante un contexto similar. Lo mismo ocurre con determinados grupos de personas o colectivos como podría ser un gobierno o un partido político.

Para otros usos de este término, véase Aptitud (biología).La aptitud (del latín aptus = capaz para), en psicología, es cualquier característica psicológica que permite pronosticar diferencias interindividuales en situaciones futuras de aprendizaje. Carácter o conjunto de condiciones que hacen a un hombre especialmente idóneo para una función determinada. Mientras que en el lenguaje común la aptitud sólo se refiere a la capacidad de una persona para realizar adecuadamente una tarea, en psicología engloba tantas capacidades cognitivas y procesos como características emocionales y de personalidad. Hay que destacar también que la aptitud está estrechamente relacionada con la inteligencia y con las habilidades tanto innatas como adquiridas fruto de un proceso de aprendizaje.
Tipos de cliente: Existe una variedad de tipos de clientes. Se comienza perteneciendo al grupo de "publico objetivo", pasando luego a ser cliente potencial", luego al grupo de "comparador eventual" y hasta llegar a ser "cliente habitual" o "usuario". Se clasifican además en clientes internos y externos.
TIPOS DE CLIENTES (01) Si vemos al cliente desde el punto de vista comercial, la persona (cliente)puede catalogarse en diferentes categorías. Comienza perteneciendo al grupo de"público objetivo" de la empresa / institución; pasando luego a ser "clientepotencial", luego al grupo de "comparador eventual" y hasta llegar a ser "cliente habitual" o "usuario". El cliente clasificado como "público objetivo" es aquel que no se interesan enforma particular en el servicio o el producto que la empresa ofrece. El cliente catalogados como "cliente potencial" , se interesa, pero aún no sedecide a comprar o acudir al servicio de la empresa / institución. El cliente "comprador eventual" , es aquel que ya se ha decidido y el "clientehabitual" o "usuario" es aquel que esta dispuesto a enfrentar las consecuenciasde la compra del producto o el acudir al servicio. CLIENTES INTERNOS Y EXTERNOS Los clientes externos, aquellos que compran un producto o utilizan algún servicio, se suelen identificar con bastante facilidad. En cambio, reconocer a los clientes internos es una tarea más difícil. Los clientes internos son los empleados que están continuamente relacionándose con otro empleado dentro de la misma empresa e incluso con el cliente externo. En la mayoría de las empresas no se tiene en cuenta la opinión del clienteinterno, de sus trabajadores, y para que este sistema se implante de maneraeficaz hay que tener en cuenta a todos los empleados y verlos como un aspectomuy importante a la hora de realizar este tipo de gestión. Pero otro de los aspectos más importantes dentro del ciclo de producción como son losproveedores. Antes de detectar problemas en el producto, es mejor disminuirtanto como sea posible la probabilidad de que éstos ocurran. Para ello esnecesario controlar a los proveedores. Muchos de los problemas que aparecen enel proceso de producción provienen de los proveedores. Controlándolos se actuaráde manera pro-activa, anticipándonos al problema antes de que aparezca. Estopuede suponer un gran ahorro. Se debe en toda empresa / institución identificar quienes son los clientes de laempresa, tanto los internos como los externos. Para el análisis de los niveles de satisfacción de los clientes internos sepueden utilizar los siguientes indicadores: Contenido del trabajo: referidos al atractivo que presentaba el contenido detrabajo, el nivel de retroalimentación de los resultados que posibilita, elsignificado social conferido, el nivel de autonomía que permite el puesto. Trabajo en grupo: relativo al grado en que el trabajo permitía que se realizarantrabajos en grupos propiciando la participación y la satisfacción de lasnecesidades de afiliación que pose este tipo de clientes. Estimulación: concerniente al grado en que el sistema remunerativo existentesatisface las necesidades de suficiencia, justicia, equidad y se encuentravinculado a los resultados del trabajo y los esfuerzos desarrollados. Condiciones de trabajo: referente al grado en que las condiciones imperantes enel área de trabajo resultan seguras, higiénicas, cómodas y estéticas.Condiciones de Bienestar: relativa al grupo de condiciones que la entidadestablezca con vistas a facilitar un mejor clima laboral tales como latransportación, alimentación, horario de trabajo, etc. En el estudio de los niveles de satisfacción de los clientes externos se puedenutilizar el uso de tres tipo o grupo de atributos: Vinculados al Persona: tales como porte y aspecto, trato, dominio idiomático,diligencia, responsabilidad, etc. Vinculados al Producto: tales como temperatura, presencia, variedad, cantidad,precio, tamaño, etc. Vinculados al local: tales como higiene, orden, estado técnico, confot, temperatura, atractivo estético, etc. Estos tres tipos de atributos se consideran los fundamentales que condicionan elnivel de satisfacción de los clientes.