viernes, 14 de noviembre de 2008

viernes, 22 de agosto de 2008

Nueva tecnología para medir el agua de los ríos

Una nueva tecnología permite conocer todo lo que hay que saber sobre los ríos... y no se lo han contado.
Al ver pasar el agua de un río por debajo de un puente, muchas ideas se le habrán venido a la mente, pero quizá nunca se ha preguntado por la velocidad, el caudal, la difusión turbulenta, rugosidad y temperatura. Gracias a que algunos conocen la respuesta a estas preguntas es que usted ha podido estar de pie tranquilo sobre ese puente. Todas esas características son indispensables para iniciar proyectos de construcción -puentes, canales- y también de impacto ambiental.
La velocidad son los metros por segundo que recorre un río y el caudal son los metros cúbicos de agua que pasan por segundo en un sitio determinado. Las irregularidades topográficas del lecho ofrecen una resistencia al paso del agua, a ésto se le llama rugosidad. La difusión turbulenta es el esparcimiento de partículas en el agua, causado por la rugosidad; la temperatura es el grado de calor del agua.
Un grupo de ingenieros colombianos elaboró un equipo electrónico digital, una especie de laboratorio portátil con el que pueden medir todas estas características.
Quizá lo más importante de este producto tecnológico es que su construcción está basada en un modelo teórico propio, creado por los investigadores; quienes lo concibieron y aplicaron en la fabricación del aparato. Para crear este modelo teórico, los ingenieros se basaron en el mismo principio del efecto Doppler, este efecto se puede explicar con el siguiente ejemplo:
Supongamos que usted está junto a la carrilera y viene el tren a una velocidad constante y la frecuencia del sonido de la sirena también es constante. Entre más se acerca, usted escucha un tono más agudo porque la velocidad de las ondas sonoras se suma a la velocidad del tren y los intervalos de las ondas sonoras son más cortos. Si el tren se aleja, usted oye el tono más grave pues los intervalos de los frentes de onda son más largos.
El principio del efecto Doppler usualmente se había asociado a ondas; lo que hicieron estos investigadores fue relacionarlo con el transporte de partículas en el agua y aplicarlo a la hidrología. Veamos, a grandes rasgos, cómo se puede plantear esta analogía:
Muchas empresas colombianas ya utilizan este equipo para sus trabajos de campo. Imaginémonos un río que corre de derecha a izquierda a cierta velocidad. En un punto del río, alguien agrega cierta cantidad de sal; estas partículas de sal se dispersan en el agua (como lo hacen las ondas sonoras en el aire); algunas de estas partículas de sal se dispersan en la misma dirección del río, es decir de derecha a izquierda, o sea, que su velocidad se suma a la del agua. Otras partículas de sal se dispersan en sentido contrario al del río, o sea, que su velocidad se restaría a la velocidad del río. Es básicamente, como dijimos anteriormente, el mismo principio del efecto Doppler, pero en contextos diferentes.
Los investigadores han escrito un paper -artículo para una publicación científica especializada- sobre su trabajo para ser publicado por revistas científicas en el extranjero.
Muchas empresas en Colombia ya utilizan el equipo para sus trabajos de campo; entre ellas están: la CAR (Corporación Autónoma Regional de Cundinamarca) la CRC (Corporación Regional del Cauca) y la CVC (Corporación Regional del Valle del Cauca). Estas organizaciones utilizan el laboratorio portátil, principalmente, para medir el caudal de los ríos que están bajo su cuidado.
El grupo que construyó esta nueva tecnología está integrado por los ingenieros: Alejandro Carvajal, encargado del diseño; Alfredo Constaín, a cargo del área de electroquímica y el desarrollo de los modelos físicos; Héctor Fabio Aristizábal, experto en hidrología y quien trabaja en la CVC; Rodrigo Lemos, de la Universidad del Cauca, analiza los datos hidrológicos; Juan Carlos Mena y Oscar Agredo, de la Universidad Autónoma de Occidente, expertos en electrónica.
La Universidad Javeriana, a través de su programa Fundaempresa, auspiciado por el BID, apoya el desarrollo de estos equipos. La idea es producir los aparatos con unos estándares internacionales y abrir posibilidades de exportación. Actualmente el grupo de investigadores recibe apoyo general en la parte empresarial de Incubar Futuro, un organismo cuyo objetivo es la promoción de empresas de base tecnológica en Colombia.

Internet2

Internet2 (I2) o UCAID (University Corporation for Advanced Internet Development)

Es un consorcio sin fines de lucro que desarrolla aplicaciones y tecnologías de redes avanzadas, la mayoría para transferir información a alta velocidad. Internet2 es una red telemática desarrollada principalmente por las universidades estadounidenses, construida en fibra óptica y permite altas velocidades con una gran fiabilidad. Es llevado por 212 universidades de Estados Unidos y otras 60 compañías tecnológicas como Comcast, Microsoft, Intel, Sun Microsystems y Cisco Systems. Algunas de las tecnologías que han desarrollado han sido IPv6, IP Multicast y Calidad de Servicio (QoS).

Las velocidades mínimas son:

622 Mbps para un miembro de I2 (universidades y socios).
50 Mbps para un usuario particular.
La enseñanza, el aprendizaje y la investigación, en colaboración, pueden requerir interconexión y altas conexiones de banda ancha en tiempo real. La infraestructura basica de Internet2 soporta esas aplicaciones, conocidas como Learning–ware. También han desarrollado otras aplicaciones para entornos de alta velocidad como los laboratorios virtuales (LAV), la telemedicina y la teleinmersión.

Para conectarse a Internet2 necesitas que tu red de alta velocidad esté conectada a un GigaPop de Internet2; también puedes conectarte a través de Internet usando un backbone. Aunque existen muchas similitudes con Internet, la nueva red no pretende sustituir a la antigua, al menos a corto plazo.

¿Qué es la Web 2.0?

La Web 2.0 es la representación de la evolución de las aplicaciones tradicionales hacia aplicaciones web enfocadas al usuario final. El Web 2.0 es una actitud y no precisamente una tecnología.
La Web 2.0 es la transición que se ha dado de aplicaciones tradicionales hacia aplicaciones que funcionan a través del web enfocadas al usuario final. Se trata de aplicaciones que generen colaboración y de servicios que reemplacen las aplicaciones de escritorio.
Es una etapa que ha definido nuevos proyectos en Internet y está preocupándose por brindar mejores soluciones para el usuario final. Muchos aseguran que hemos reinventado lo que era el Internet, otros hablan de burbujas e inversiones, pero la realidad es que la evolución natural del medio realmente ha propuesto cosas más interesantes como lo analizamos diariamente en las notas de Actualidad.
Y es que cuando el web inició, nos encontrábamos en un entorno estático, con páginas en HTML que sufrían pocas actualizaciones y no tenían interacción con el usuario.
Pero para entender de donde viene el término de Web 2.0 tenemos que remontarnos al momento en que Dale Dougherty de O’Reilly Media utilizó este término en una conferencia en la que compartió una lluvia de ideas junto a Craig Cline de MediaLive. En dicho evento se hablaba del renacimiento y evolución de la web.
Constantemente estaban surgiendo nuevas aplicaciones y sitios con sorprendentes funcionalidades. Y así se dio la pauta para la Web 2.0 conference que arranca en el 2004 y hoy en día se realiza anualmente en San Francisco, con eventos adicionales utilizando la marca en otros países.
En la charla inicial del Web Conference se habló de los principios que tenían las aplicaciones Web 2.0:
La web es la plataforma
La información es lo que mueve al Internet
Efectos de la red movidos por una arquitectura de participación.
La innovación surge de características distribuidas por desarrolladores independientes.
El fin del círculo de adopción de software pues tenemos servicios en beta perpetuo
La Web 2.0 con ejemplos
Entender la evolución que ha llegado con la Web 2.0 puede realizarse con ejemplos, con proyectos. Podemos comparar servicios web que marcan claramente la evolución hacia el Web 2.0 con una nueva forma de hacer las cosas:
Web 1.0 > Web 2.0
Doubleclick –> Google AdSense (Servicios Publicidad)
Ofoto –> Flickr (Comunidades fotográficas)
Akamai –> BitTorrent (Distribución de contenidos)
mp3.com –> Napster (Descargas de música)
Britannica Online –> Wikipedia (Enciclopedias)
Sitios personales –> Blogs (Páginas personales)
Especulación con dominios –> Optimización en motores de búsqueda SEO
Páginas vistas –> Costo por click
CMSs –> Wikis (Administradores de contenidos)
Categorías/Directorios –> Tags
¿Qué tecnologías apoyan a la Web 2.0?
El Web 2.0 no significa precisamente que existe una receta para que todas nuestras aplicaciones web entren en este esquema. Sin embargo, existen varias tecnologías que están utilizándose actualmente y que deberíamos de examinar con más cuidado en busca de seguir evolucionando junto al web.
Tecnologías que dan vida a un proyecto Web 2.0:
Transformar software de escritorio hacia la plataforma del web.
Respeto a los estándares como el XHTML.
Separación de contenido del diseño con uso de hojas de estilo.
Sindicación de contenidos.
Ajax (javascript ascincrónico y xml).
Uso de Flash, Flex o Lazlo.
Uso de Ruby on Rails para programar páginas dinámicas.
Utilización de redes sociales al manejar usuarios y comunidades.
Dar control total a los usuarios en el manejo de su información.
Proveer APis o XML para que las aplicaciones puedan ser manipuladas por otros.
Facilitar el posicionamiento con URL sencillos.
¿En qué nos sirve la Web 2.0?
El uso de el término de Web 2.0 está de moda, dándole mucho peso a una tendencia que ha estado presente desde hace algún tiempo. En Internet las especulaciones han sido causantes de grandes burbujas tecnológicas y han hecho fracasar a muchos proyectos.
Además, nuestros proyectos tienen que renovarse y evolucionar. El Web 2.0 no es precisamente una tecnología, sino es la actitud con la que debemos trabajar para desarrollar en Internet. Tal vez allí está la reflexión más importante del Web 2.0.Yo ya estoy trabajando en renovar y mejorar algunos proyectos, no por que busque etiquetarlos con nuevas versiones, sino por que creo firmemente que la única constante debe ser el cambio, y en Internet, el cambio debe de estar presente más frecuentemente.
Otros artículos interesantes sobre Web 2.0:
Web 2.0 ¿Reconfiguración social o tecnológica?
Web 3.0, añade significado
What is Web 2.0 en O’reilly (inglés)
Web 2.0 en la Wikipedia
Plataforma Web 2.0 : ¿Que Es?
Web 2.0 for designers
Are you ready for Web 2.0? en Wired.
El evento Web 2.0 Expo
Proyectos web 2.0 aparecidos en España en el 2007
Como crear un logo web 2.0
Discusión: ¿Relación entre Web 2.0 e Internet 2?

viernes, 15 de agosto de 2008

Educación a distancia

La Educación a distancia es una modalidad educativa en la que los estudiantes no necesitan asistir físicamente a ningún aula. Normalmente, se envía al estudiante por correo el material de estudio (textos escritos, vídeos, cintas de audio, CD-Roms y el devuelve los ejercicios resueltos. Hoy en día, se utiliza también el correo electrónico y otras posibilidades que ofrece Internet, fundamentalmente las aulas virtuales. Al aprendizaje desarrollado con las nuevas tecnologías de la comunicación se le llama e-learning. En algunos casos, los estudiantes deben o pueden acudir a algunos despachos en determinadas ocasiones para recibir tutorías, o bien para realizar exámenes. Existe educación a distancia para cualquier nivel de estudios, pero lo más usual es que se imparta para estudios universitarios.

Características
Una de la características atractivas de esta modalidad de estudios es su flexibilidad de horarios. El estudiante se organiza su período de estudio por sí mismo, lo cual requiere cierto grado de autodisciplina. Esta flexibilidad de horarios a veces es vulnerada por ciertos cursos que exigen participaciones online en horarios y/o espacios específicos.
Una de las universidades de educación a distancia más antiguas es la Universidad de Sudáfrica, la cual lleva ofreciendo este servicio desde 1946. En el Reino Unido, la más grande es la Open University que se fundó en 1969. En España, la Universidad Nacional de Educación a Distancia comenzaría sus actividades docentes en 1973 y un año más tarde, en Alemania, se fundaría la FernUniversität Hagen. Estas cuatro universidades tienen más de 100.000 alumnos, que es posible gracias al bajo coste que supone la educación a distancia. En México, en 1945 se inicia esta modalidad con el Instituto Federal de Capacitación del Magisterio, considerado la Normal más grande del mundo, ya que por razones históricas para el país tuvo que formar a a más de 90,000 profesores de educación primaria en servicio que carecían del título para ejercer la docencia.
Entre los antecedentes de la educación a distancia están los cursos por correspondencia, que se iniciaron por la necesidad de impartir enseñanza a alumnos en lugares aislados, en los que no era posible construir un colegio. Tales cursos se ofrecieron al nivel de primaria y secundaria, y en ellos, a menudo, eran los padres quienes supervisaban el progreso educativo del alumno.
Ventajas y desventajas
Sus principales ventajas residen en la posibilidad de atender demandas educativas insatisfechas por la educación convencional hegemónica. Las ventajas a las que alude la mayoría de las personas que usan este método, es la de poder acceder a este tipo de educación independientemente de dónde residan, eliminando así las dificultades reales que representan las distancias geográficas. Además, respeta la organización del tiempo, respetando la vida familiar y las obligaciones laborales.
En cambio, sus desventajas se refieren a la desconfianza que se genera ante la falta de comunicación entre el profesor y sus alumnos, sobre todo en el proceso de evaluación del aprendizaje del alumno. Por otro lado, es necesario una intervención activa del tutor para evitar el potencial aislamiento que puede tener el alumno que estudia en esta modalidad. Otra gran desventaja radica en el aislamiento que se puede llegar a dar entre seres humanos, eliminando la interacción social física.

Second Life

Second Life (abreviado como SL) es un mundo virtual lanzado en el año 2003, desarrollado por Linden Research Inc. (llamado comúnmente Linden Lab), el cual ha tenido una atención internacional de manera creciente desde el año 2006. Las personas para hacer uso de éste programa, deben crear una cuenta en [www.secondlife.com] y bajar el programa llamado Second Life Viewer. Al registrarse y acceder pasarán a ser llamados “residentes" o de manera abreviada AV que significa avatars.
La manera en que los residentes interactúan a través de SL, lo cual a su vez es uno de los principales atractivos de este mundo virtual, es a través de los avatars o AV, que son personajes en 3D completamente configurables, lo que le da a los usuarios, la capacidad de convertirse en otra persona y gozar (cómo el mismo nombre del programa lo indica, de una segunda vida). Esto promueve en el mismo mundo una avanzada interacción virtual que combinado con los aspectos de un metaverso, los residentes de SL podrán explorar el mundo, conocer a otras personas, socializarse, participar en actividades grupales de acuerdo a sus gustos, tener sexo virtual, entre otras cosas. Además su segundo atractivo más importante, es la posibilidad de crear objetos e intercambiar diversidad de productos virtuales a través de un mercado abierto, que tiene como moneda local, el Linden Dólar ($L).
SL es uno de los varios mundos virtuales inspirados en la novela de Ciencia ficciónSnow Crash”, de Neal Stephenson y el movimiento literario “Cyberpunk”. Es un mundo creado por sus usuarios en el que la gente puede interactuar, jugar, comunicarse y también hacer negocios, pues la manera en como se realizan negocios con la moneda Linden Dólar (Linden o $L) es de manera abierta y es libre a las interacciones del mercado. Esta moneda es intercambiable al mundo real, por lo que muchos residentes de SL toman este mundo muy en serio convirtiéndolo en su sustento para la vida real.
En ocasiones, SL se ha definido como un juego online, lo que hace a esta definición corta, por no tratatarse de conquistar mundos, de obtener records, de pasar niveles o de crear estrategias, debido a que en SL no hay ganadores ni perdedores, sino que se puede interactuar con otros residentes o avatars en distintas actividades, entre ellas, juegos, como batallas con armas, partidos de fútbol, etc.
Para marzo de 2008, SL cuenta con aproximadamente unas 13 millones de personas registradas, de las cuales un alto porcentaje están inactivas. La razón mas común, es que los interesados se registran, bajan el programa, pero el mismo no les permite arrancar, debido a que el software pide estándares en promedio altos para su ejecución. Además, hay que mencionar que muchas personas tienen múltiples cuentas, con el fin de desenvolverse con distintos roles en SL o hacer transacciones dudosas en el mundo virtual. Aun así, en promedio están conectados entre 35 mil a 50 mil personas y en sus picos más altos pueden llegar a estar, de 70 mil a 90mil conectados. Para la ultima estadística de ingresos en los ultimos 60 dias, se conectaron 1,292,114 personas.[4]
La programación de este mundo virtual es abierta y libre. El código de SL permite a los usarios poder modificar absolutamente cualquier aspecto del mundo virtual, desde el color de los ojos del personaje a su aspecto físico, sus movimientos, sonidos y permite además, construir cualquier cosa en 3D: desde un cubo a una discoteca, un jardín o un campo de batalla o desde una pistola a una flor o unas zapatillas Nike. También permite la creación y manipulación de scripts para poder programar cualquier aspecto del mundo, desde un cañón para lanzar personas (como en el circo) a un sistema de envío de mensajes a móviles en cualquier lugar del mundo. Además de permitir editar todos estos aspectos, la propiedad intelectual de los mismos pertenece al usuario que lo creó, por lo que legalmente puede obtener beneficios económicos ya sea desde la moneda del mundo $L o tramitar sus ganancias a una cuenta corriente o de PayPal para obtener euros (€) o dólares ($).


Precios
Actualmente se puede jugar Second Life con una cuenta gratuita. Sin embargo, para poseer tierra y poder construir en ella, es necesario crear una cuenta de pago cuyo precio oscila entre 6 y 9 dólares estadounidenses mensuales, además de tener la posibilidad de comprar los terrenos necesarios para la construcción.
Se puede también construir libremente en lugares específicos para ello, llamados sandbox (caja de arena), pero los objetos desaparecen después de unas horas. También se puede comprar o alquilar un terreno a otro usuario o residente sin necesidad de tener una cuenta de pago y simplemente pagar los terrenos con la moneda local del juego. De esta manera, existen muchas formas de obtener dinero del juego. Estos precios permanecieron hasta antes del pasado 15 de noviembre de 2006, fecha en que comenzó el mantenimiento de las islas privadas y comenzaron a costar aún más, llegando a los 295 dólares mensuales. A la fecha, los costos siguen en aumento, dada la alta popularidad entre sus jugadores.

Actividad cultural
Second Life también tiene una agitada vida cultural, por lo que es habitual encontrar exposiciones y asistir a conciertos. *[1] Inter-Activa creó una de los primeros performance y galerías de arte en Second Life, en el año 2004 y la mayoría de los primeros machinimas (películas creadas dentro de SL y otros juegos). Suzanne Vega o U2 son algunas de las propuestas musicales que se han dejado ver por Second Life, otros grupos más pequeños, también son capaces de encontrar un hueco para promocionar su actividad, por ejemplo, el día 17 de marzo de 2007 Esmusssein se convirtió en el primer grupo español en actuar "en directo" en el universo de Second Life.

Actividad política
Gaspar Llamazares, coordinador de Izquierda Unida tiene su propio personaje de Second Life y la delegación del PP en Castilla - La Mancha, también cuenta con una oficina electoral, aunque la primera persona de la política española en tener personaje y sede en este medio haya sido la candidata del PSOE a la alcaldía de Oviedo, Paloma Sainz.
Otro aspecto de la actividad política en SL, se vio reflejada en mayo del año 2007, día en que un usuario de Second Life bajo el nick de Iulius Carter[5] convocó a una manifestación virtual frente a la sede del PSOE, antes mencionada, para protestar por la política (en el mundo real) del Gobierno español de conceder la excarcelación al etarra De Juana Chaos. Esta manifestación, se celebró con asistentes entre el 14 y el 20 de mayo, con diversos incidentes y polémicas, hasta que uno de los cabecillas fueron baneados del primer lugar propuesto para su celebración. Debido a la violación de las normas del lugar, los manifestantes han propuesto otros lugares de concentración lo que ha producido que la actividad frente a la sede del PSOE, se haya disminuido.

Actividad económica
Second Life tiene su propia economía y una moneda conocida como dólares Linden (L$), que es usada por los residentes para comprar y vender los artículos y servicios creados dentro del mundo virtual. Un dólar estadounidense equivale a unos 250 dólares Linden en el mundo virtual.
La popularidad de Second Life ha llegado a las compañías multinacionales que han adquirido una segunda presencia en el mundo virtual. Empresas como Nissan, Starwood, Sony, BMG, Wells Fargo Bank, Coca Cola, Reebok, Dell, General Motors, Intel, Microsoft, PSA Peugeot Citroën, están estableciendo negocios y publicidad en esta economía virtual. A mediados de 2007, el número de negocios en Second Life con flujo de caja positivo, superó los 40.000 y más de 45 multinacionales, ahora tienen presencia en el mundo virtual.

Negocios y organizaciones en Second Life
Gracias a la combinación de la garantía que ofrece Linden Lab sobre los derechos de autor de aquellos residentes que han creado algún tipo de obra en SL, y el intercambio legal de la divisa virtual Linden$ por dinero real, se ha favorecido la creación de negocios que funcionan solo dentro del metaverso, la salida a la realidad de negocios que se han creado inicialmente en el mundo virtual, y la incorporación de servicios virtuales por parte de empresas tradicionales.

Consultoría
Se han formado varias empresas para ayudar y aconsejar a otras compañías reales sobre como entrar en el mundo de Second Life de una forma satisfactoria. Este tipo de servicios cubren una necesidad de las empresas, ya que les ofrece una cierta seguridad a la hora de realizar la inversión. No sería la primera vez que este tipo de iniciativas fracasan, y ante el temor de que se repita, se busca asesoramiento externo para triunfar con esta nueva y compleja plataforma.

Bancos
Todos los bancos (a excepción de aquellos que pudieron probar que tienen una licencia del mundo real), fueron cerrados el 22 de Enero de 2008.

Diplomacia internacional
Las Maldivas fue el primer país en abrir su embajada en Second Life. Dicha embajada se situal en la "Diplomacy Island", donde los distintos paises ofrecen embajadores virtuales con los que se puede hablar cara a cara y obtener información sobre visados, comercio, y otros aspectos. En dicha isla tambien se encuentran el museo y la academia de la diplomacia. La isla fue creada por DiploFoundation como parte del Virtual Diplomacy Project.
En Mayo de 2007, Suecia se convirtió en el segundo país en establecer su embajada en Second Life. Es gestionada por el Instituto Sueco, y sirve para promover la cultura y imagen suecas, más que para ofrecer ningun servicio real o virtual. El Ministro de asuntos exteriores sueco, escribió en su blog que esperaba conseguir una invitación para la gran inauguración de la embajada.
El 4 de Diciembre de 2007, Estonia pasó a ser el tercer país en abrir una embajada. Malta, Macedonia, e Islas Filipinas están planeando hacer lo mismo.

Religion
Algunas organizaciones religiosas también han empezado a establecer sus rincones virtuales de encuento en Second Life. A comienzos de 2007, LifeChurch.tv, una iglesia Cristiana cuya sede se encuentra en Edmond, Oklahoma, con 11 campuses reales en los EEUU, creó la "Experience Island", que constituye su duodécimo campus. La iglesia informó que se trataba de un espacio con la intención de superar el ambiente incómodo que encuentran algunas personas en la realidad a la hora de hablar de temas espirituales, y de esta forma facilitarles la exploración y discusión de estos temas.
Islam Online, ha comprado tierra en Second Life para permitir tanto a musulmanes como no musulmanes realizar el ritual del Hajj de forma virtual, para obtener experiencia antes de acudir en persona a la peregrinación.

Residentes y avatares

Apariencia e identidad
Los residentes son usuarios en Second Life, y su apariencia es su avatar (Abrev. av, avi, ava). El aspecto del avatar básico es humano, bien del género masculino o femenino. Tienen un amplio rango de atributos físicos, ropas, e incluso se puede hacer que adopten formas diferentes de la humana (animales, robots...). En ocasiones llegan a ser tremendamente creativos, o llegar a reproducir la imagen de la persona a la que representan. Una misma persona puede disponer de varias cuentas (denominadas en este caso alts, y por lo tanto conectarse como distintos residentes. Registrar varias cuentas exige pagar una pequeña cantidad. De cualquier forma, a partir de Mayo de 2006 se dejó de verificar las conexiones, de forma que un mismo usuario puede registrar un numero indefinido de cuentas iniciales gratuitas, proporcionando datos falsos. Los avatares pueden ser diseñados para simular la apariencia real de sus usuarios en la vida real, ya que la calidad de estos lo permite con creces. Del mismo modo, también pueden ser modificados para parecer mas altos, atractivos o musculados. Second Life proporciona en este aspecto la libertad creativa al usuario para que diseñe su propio personaje virtual. Al ser facilmente modificables, la apariencia de un residente puede variar drásticamente en un breve periodo de tiempo.
A pesar de que en el mundo virtual, la apariencia del avatar no determina en absoluto la apariencia real del usuario que lo maneja, en Second Life la identidad es generalmente menos anónima que en otros mundos virtuales o redes sociales. Cualquer usuario del mundo de SL, puede establecer si la información sobre su pago real se guarda. En cambio, no pueden acceder a los datos personales de ese pago. (Esta característica se implementó para verificar la edad, y para permitir a los usuarios distinguir entre cuentas de pago o gratuitas). Algunos servicios virtuales pueden requerir que el usuario proporcione sus datos reales, pero en cualquier caso este es libre de utilizarlos o no.
Las creaciones de los residentes de SL son igualmente poco anónimas, dado que los servidores de Linden Lab registran el avatar un avatar como creador para cualquier diseño. Cualquier creación lleva implícitos derechos de copyright. Linden Lab tambíen proporciona la flexibilidad de permitir al creador de un diseño, establecer si desea que cualquier otro usuario que posea dicho objeto, lo pueda modificar, copiar, o transferir. Igualmente se puede elegir si una o varias de estas características serán extendidas a los subsiguientes usuarios.

Educación
Muchas universidades y empresas están utilizando Second Life para la formación, incluyendo las universidades de Harvard, Oxford[6] y Vigo.
En el 2007 se empezó a usar Second Life para la enseñanza de idiomas.[7] La enseñanza de inglés como un idioma extranjero ha conseguido una presencia a través de varias escuelas, incluyendo el British Council, que ha tenido un enfoque en 'Teen Grid' (la versión de Second Life para adolescentes). Además, el Instituto Cervantes de España tiene también una isla en Second Life. Se encuentra una lista más completa de proyectos educativos en Second Life (incluso unas escuelas de idiomas). En la página Web de SimTeach. SLanguages 2008 es la segunda conferencia anual para la educación de idiomas utilizando los mundos virtuales como Second Life. SLanguages.net es el sitio Web de la conferencia.

Tecnología educativa

es el resultado de las aplicaciones de diferentes concepciones y teorías educativas para la resolución de un amplio espectro de problemas y situaciones referidos a la enseñanza y el aprendizaje. La evolución de la tecnología educativa, que como disciplina nació en Estados Unidos de América en la década de los 50 del siglo pasado, ha dado lugar a diferentes enfoques o tendencias que hemos conocido como enseñanza audiovisual, enseñanza programada,tecnología instruccional, diseño curricular o tecnología crítica de la enseñanza.
Se entiende por tecnología educativa al acercamiento científico basado en la teoría de sistemas que proporciona al educador las herramientas de planeación y desarrollo, así como la tecnología, que busca mejorar el proceso de enseñanza-aprendizaje a través del logro de los objetivos educativos y buscando la efectividad del aprendizaje.
Un aspecto que lo hace tangible son las diversas piezas informáticas denominadas plataformas didácticas tecnológicas. Las plataformas tienen diferentes objetivos, como lo es gestionar los contenidos, pero también implican la creación de los mismos- Al utilizarlas se busca encontrar métodos para volver factible el conocimiento mediado actualmente por los medios tecnológicos, desde el punto de vista del método heurístico.

Materiales Didácticos
Son aquellos medios y recursos que facilitan el proceso de enseñanza y de aprendizaje.,dentro de un contexto educativo global sistemático, estimulando la función de los sentidos para acceder más fácilmente a la información, a la adquisición de habilidades y destrezas, y a la formación de actitudes y valores.
La diferencia entre "medios" y "recursos" es que los primeros han sido diseñados para ser utilizados en procesos educativos, mientras que los segundos han sido diseñados con otros propósitos y son adaptados por los docentes para los procesos educativos. Veamos algunos ejemplos de ambos: "un libro de texto es un material didáctico", mientras que un procesador de textos o una presentación realizada con [Microsoft PowerPoint] pueden ser un recurso educativo.
Para enriquecer la definición anterior, algunos autores han propuesto lo que es un medio educativo; tales como: Margarita Castañeda, Meredith, Allen, de los que puede inferirse que: primero, medio educativo y recursos de instrucción surgen como sinónimos, y segundo, el medio educativo(recurso de instrucción), tiene una función de intermediario entre el maestro y los alumnos. Para poder entender lo que es un medio educativo es necesario tomar en cuenta 4 características esenciales: recursos de instrucción, experiencia mediadora, organización de la instrucción, equipo técnico.
En un medio o recurso de instrucción se distingue dos aspectos: ¿Cómo el maestro va a enseñar? Y los materiales que va a utilizar. El profesor como educador debe manejar los factores de la instrucción, Ser capaz de generar el contenido del mensaje y organizarlo de acuerdo con la estrategia del aprendizaje. Por las cuales el individuo aporta el enrequecimiento de este valor adquisitivo, como cabe mencionar unos ejemplos de ellos seria el de exposicion libre y cuestionarios, lo mas efectivo y de mayor abundancia en el conocimiento de la tecnologia educativa.
Modelo de Instrucción
Se observa que el modelo de instrucción consta de cinco elementos básicos:
Objetivos.
Estrategias.
Materiales didácticos.
Evaluación.
La formulación de los objetivos obliga a reflexionar hacia donde se quiere llegar en la instrucción, para de ahí seleccionar las estrategias más adecuadas (¿Cómo logro esto?), para conseguirlo. El tercer paso es seleccionar los materiales (medios y recursos) convenientes para el establecimiento de la estrategia elegida, para llevar más adelante la evaluación (resultados de los pasos anteriores) de acuerdo con los objetivos establecidos y por último, tener presente que es importante realiza una retroalimentación. Es importante que el maestro participe en la formulación de los objetivos y que sepa como los va a llevar a cabo de acuerdo al modelo de instrucción presentado anteriormente, acorde al época presente, de tal manera que proporcione al estudiante una variedad de experiencias, y le facilite la aplicación de su aprendizaje en la vida real. Varios investigadores, entre los que se incluyen Charles F. Hoban, James D. Finn y Edgar Dale, descubrieron que los medios y recursos didácticos, pueden aportar las siguientes ventajas:
Proporcionan una base concreta para el pensamiento conceptual.
Tienen un alto grado de interés para los estudiantes.
Hacen que el aprendizaje sea más permanente.
Ofrecen una experiencia real que estimula la actividad por parte de los alumnos.
Desarrollan continuidad de pensamiento.
Contribuyen al aumento de los significados.
Proporcionan experiencias que se obtienen mediante materiales y medios.
con la estrategia del aprendizaje.

Historia de Google. Los comienzos

- primavera 1995: Sergey Brin (23 años entonces) y Larry Page (24), confundadores de Google y actualmente presidente y CEO, se conocen en un acto que la Universidad de Stanford organiza para los candidatos de su Doctorado en Informática.
- otoño 1995: Larry y Sergey comienzan a trabajar en el 'Digital Library Project' de la Universidad de Stanford. Larry Page, con experiencia en diseño web y el título de Ingeniero Eléctrico, y Sergey Brin, un experto en tratamiento de datos y Licenciado en Informática y Ciencias Matemáticas, comienzan a crear un algoritmo para la búsqueda de datos. Esta tecnología se convertirá mas tarde en el corazón que hará funcionar a Google.
El nombre que Larry Page da a esta tecnologia fue 'PageRank'. En su pagina web personal de la Universidad de Stanford, colgará en 1997 una presentacion que lo explica: 'PageRank: Bringing Order to the Web'.
- enero 1996: Comienzan a desarrollar un buscador llamado 'BackRub'. Este nombre se lo dan debido a que la mayor habilidad de este motor de búsqueda es analizar los 'back links' (enlaces que apuntan a una determinada página).
Tal y como indican en su descripción, Backrub está escrito en Java y Python (incluso Larry Page postea alguna duda en los 'newsgroups'), y corre sobre varias máquinas Sun Ultra y Intel Pentium con Linux. La Base de Datos está alojada en un ordenador Sun Ultra II con 28GB de disco duro.
Si tienes cualquier duda sobre el funcionamiento de este buscador, y no está contestada en sus FAQ, puedes llamar al (415) 723-3154, y preguntar por Larry. Los primeros usuarios son los alumnos y profesores de Stanford, que disfrutan de la precisión con la que el buscador encuentra datos en la web.
- 1997: 'Backrub' se transforma en 'Google'. Le otorgan este peculiar nombre por su parecido a la palabra 'googol', que en inglés es el nombre que que se da a la cifra '10 elevado a 100' (un uno seguido de 100 ceros). Ya tienen indexadas 24 millones de páginas. Mucho antes, ya han tenido problemas de capacidad en sus discos duros, y han tenido que idear ingenios basados en Lego, como este.
En los comienzos de Google (en el dominio google.stanford.edu), su diseño es aún más austero de lo que será posteriormente. En esta antigua versión se incluyen fotografías de los equipos que utilizan.

- 1997: Larry y Sergey han registrado el dominio 'google.com'. Además, han dado a conocer su tecnología a la 'Office of Technology Licensing' (OTL) de la Universidad de Stanford, que será la encargada de contactar con diferentes compañías de Internet que puedan estar interesadas en Google.
- enero 1998: A Sergey y Larry no les gusta ninguna de las ofertas recibidas, bien por ser económicamente bajas, o porque no van a desarrollar correctamente la tecnología. Por ello, deciden ser ellos los que creen su propia empresa.
Es entonces cuando el dormitorio de Larry Page se convierte en el nuevo hogar de Google, llevando todos los equipos informáticos junto a su cama. La habitación de Sergey Brin, situada al lado de la de Larry, se convierte en la oficina financiera.
Google sigue indexando paginas rápidamente, y Larry y Sergey necesitan mucha más capacidad en sus discos duros. Tienen que adquirir un terabyte, y finalmente consiguen comprar varios discos duros rebajados, todos por $15,000.
A pesar de la 'fiebre de los punto com' de aquellos días, Larry y Sergey no consiguen encontrar un inversor que financie Google, y tienen que conseguir todo el dinero de sus familias y amigos íntimos. Mientras tanto, habían abandonado su Doctorado en Stanford.
- verano 1998: En el porche de la casa de un amigo común -el profesor de la Universidad de Stanford David R. Cheriton-, Sergey y Larry conocen a Andy Bechtolsheim (cofundador de Sun Microsystems y vicepresidente de Cisco Systems), y comienzan a charlar sobre Google. Después de treinta minutos, Bechtolsheim les firma un cheque por $100,000 (más tarde les firmaría otro de igual cantidad), a nombre de 'Google Inc.'. "Básicamente los chicos necesitaban máquinas y servidores para probar su nuevo concepto, y para pagar a los abogados que les ayudasen en los temas legales", aseguró más tarde Bechtolsheim. "Y yo quería asegurarme ser parte de la compañía".
Sin embargo, 'Google Inc.' como tal, no existe, y para poder cobrar el cheque (que está dos semanas sobre la mesa de Larry), tienen que buscar un local, y fundar una nueva compañia: 'Google Inc.'.
- septiembre 1998: Google Inc. consigue reunir varios miles de dólares más, gracias al profesor Cheriton y a Ram Shriram, un ex-directivo de Netscape. Y la compañía abre sus puertas en un garaje que un amigo de Serget y Larry les alquila en Menlo Park, en California. Rápidamente, instalan varias líneas telefónicas, un cable modem, una línea DSL, y una plaza de aparcamiento para su primer empleado, Craig Silverstein (actualmente, Director de Tecnologia de Google). 25 millones de páginas están indexadas, y Google recibe diez mil consultas por día. La revista 'PC Magazine' lo incluye dentro de su lista 'Top 100 Web Sites' de 1998.
En la página web de 'About Google' de este mes, aparecen multitud de referencias sobre todo lo que rodea a Google: las 3 personas que trabajaban en aquel momento, toda la gente que les estaba ayudando, el software y el hardware que utilizaban, las colaboraciones, ...
- febrero 1999: La plantilla asciende a 8 personas, responde a 500.000 consultas por día, se trasladan a unas nuevas oficinas en Palo Alto, y firma su primer contrato comercial con RedHat, el cual empieza a suministrar el Sistema Operativo Linux de los servidores de Google. Mientras tanto, continúan con su campaña comercial: el boca a boca.

viernes, 8 de agosto de 2008

Virus informático

Virus informático
Un virus informático es un Malware que tiene por objeto alterar el normal funcionamiento de la computadora, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en un ordenador, aunque también existen otros más "benignos", que solo se caracterizan por ser molestos.
Los virus informáticos tienen, básicamente, la función de propagarse, no se replicán asi mismos por que no tienen esa facultad como el gusano informatico, depende de un software para propagarse, son muy dañinos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.
El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, aun cuando el programa que lo contenía haya terminado de ejecutarse. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del virus al del programa infectado y se graba en disco, con lo cual el proceso de replicado se completa.
Clasificación
Según algunos autores existen, fundamentalmente dos tipos de virus:
Aquellos que infectan archivos. A su vez, éstos se clasifican en:
Virus de acción directa. En el momento en el que se ejecutan, infectan a otros programas.
Virus residentes. Al ser ejecutados, se instalan en la memoria de la computadora. Infectan a los demás programas a medida que se accede a ellos. Por ejemplo, al ser ejecutados.
Los que infectan el sector de arranque, (virus de boot). El sector de arranque es lo primero que lee el ordenador cuando es encendido. Estos virus residen en la memoria.
Existe una tercera categoría llamada multipartite, pero corresponde a los virus que infectan archivos y al sector de arranque, por lo que se puede decir que es la suma de las dos categorías anteriores.
Para otros autores, la clasificación de los virus también se divide en dos categorías, pero el criterio de clasificación utilizado es distinto:
Virus de archivos, que modifican archivos o entradas de las tablas que indican el lugar donde se guardan los directorios o los archivos.
Virus de sistema operativo, cuyo objetivo consiste en infectar aquellos archivos que gobiernan la computadora.
Existe una tercera clasificación, promovida por CARO, para unificar la forma de nombrar a los virus. En esta clasificación se atiende a la plataforma en la que actúa el virus y a algunas de sus características más importantes.
Tipos de virus
Existen una variedad de virus en función de su forma de actuar o de su forma de infectar clasificados de la siguiente manera.
Acompañante: estos virus basan su principio en que MS-DOS ejecuta en primer lugar el archivo con extensión COM frente al de extensión EXE, en el caso de existir dos archivos con el mismo nombre pero diferente extensión dentro del mismo directorio. El virus crea un archivo COM con el mismo nombre y en el mismo lugar que el EXE a infectar. Después ejecuta el nuevo archivo COM, creado por el virus, y cede el control al archivo EXE.
Archivo: los virus que infectan archivos del tipo *.EXE, *.DRV, *.DLL, *.BIN, *.OVL, *.SYS e incluso BAT. Este tipo de virus se añade al principio o al final del archivo. Estos se activan cada vez que el archivo infectado es ejecutado, ejecutando primero su código vírico y luego devuelve el control al programa infectado pudiendo permanecer residente en la memoria durante mucho tiempo después de que hayan sido activados.
Este tipo de virus se divide en dos: Virus de Acción Directa, que son aquellos que no se quedan residentes en memoria y se replican en el momento de ejecutar el fichero infectado y los Virus de Sobrescritura que corrompen el fichero donde se ubican al sobreescribirlo.
Ejemplos de virus:
Worms o gusanos: se registran para correr cuando inicia el sistema operativo ocupando la memoria y volviendo lento al ordenador, pero no se adhieren a otros archivos ejecutables. Utilizan medios masivos como el correo electrónico para esparcirse de manera global.
Troyanos: suelen ser los más peligrosos, ya que no hay muchas maneras de eliminarlos. Funcionan de modo similar al caballo de Troya; ayudan al atacante a entrar al sistema infectado, haciéndose pasar como contenido genuino (salvapantallas, juegos, música). En ocasiones descargan otros virus para agravar la condición del equipo.
Jokes o virus de broma: no son exactamente virus, sino programas con distintas funciones, pero todas con un fin de diversión, nunca de destrucción, aunque pueden llegar a ser muy molestos.
Hoaxes o falsos virus: son mensajes con una información falsa; normalmente son difundidos mediante el correo electrónico, a veces con el fin de crear confusión entre la gente que recibe este tipo de mensajes o, aún peor, perjudicar a alguien o atacar al ordenador mediante ingeniería social.
Virus de macros: un macro es una secuencia de ordenes de teclado y mouse asignadas a una sola tecla, símbolo o comando. Son muy útiles cuando este grupo de instrucciones se necesitan repetidamente. Los virus de macros afectan a archivos y plantillas que los contienen, haciéndose pasar por una macro y actuarán hasta que el archivo se abra o utilice.
Según su comportamiento
Los grupos principales (y más simples) de virus informáticos son:
Kluggers: Aquellos virus que al entrar en los sistemas de otro ordenador se reproducen o bien se cifran de manera que tan sólo se les puede detectar con algún tipo de patrones.
Viddbers: Aquellos virus que modifican los programas del sistema del ordenador en el cual entran.
Además hay otros subgrupos de los anteriores grupos:
Virus uniformes, que producen una replicación idéntica a sí mismos.
Virus cifrados, que cifran parte de su código para que sea más complicado su análisis. A su vez pueden emplear:
Cifrado fijo, empleando la misma clave.
Cifrado variable, haciendo que cada copia de sí mismo esté cifrada con una clave distinta. De esta forma reducen el tamaño del código fijo empleable para su detección.
Virus oligomórficos, que poseen un conjunto reducido de funciones de cifrado y eligen una de ellas aleatoriamente. Requieren distintos patrones para su detección.
Virus polimórficos, que en su replicación producen una rutina de cifrado completamente variable, tanto en la fórmula como en la forma del algoritmo. Con polimorfismos fuertes se requiere de emulación, patrones múltiples y otras técnicas antivirus avanzadas.
Virus metamórficos, que reconstruyen todo su cuerpo en cada generación, haciendo que varíe por completo. De esta forma se llevan las técnicas avanzadas de detección al límite. Por fortuna, esta categoría es muy rara y sólo se encuentran en laboratorio.
Sobrescritura, cuando el virus sobrescribe a los programas infectados con su propio cuerpo.
Stealth o silencioso, cuando el virus oculta síntomas de la infección.
Existen más clasificaciones según su comportamiento, siendo las citadas, parte de las más significativas y reconocidas por la mayoría de los fabricantes de antivirus. Los virus más enviados según la ICVS (Informatic control virus scanner) son:
Tipo
1998
2000
2003
2005
Troyanos
20%
15%
22%
25%
Gusanos
22%
20%
25%
27%
Boot
5%
1%
4%
2%
Otros
52%
64%
49%
46%
Historia
El primer virus que atacó a una máquina IBM Serie 360 (y reconocido como tal), fue llamado Creeper, creado en 1972 por Robert Thomas Morris. Este programa emitía periódicamente en la pantalla el mensaje: "I'm a creeper... catch me if you can!" (soy una enredadera, agárrenme si pueden). Para eliminar este problema se creó el primer programa antivirus denominado Reaper (segadora).
Sin embargo, el término virus no se adoptaría hasta 1984, pero éstos ya existían desde antes. Sus inicios fueron en los laboratorios de Bell Computers. Cuatro programadores (H. Douglas Mellory, Robert Morris, Victor Vysottsky y Ken Thompson) desarrollaron un juego llamado Core Wars, el cual consistía en ocupar toda la memoria RAM del equipo contrario en el menor tiempo posible.
Después de 1984, los virus han tenido una gran expansión, desde los que atacan los sectores de arranque de disquetes hasta los que se adjuntan en un correo electrónico.
Virus informáticos y Sistemas Operativos
Los virus informáticos afectan en mayor o menor medida a casi todos los sistemas más conocidos y usados en la actualidad.
Las mayores incidencias se dan en el sistema operativo Windows debido, entre otras causas, a:
Su gran popularidad, como sistema operativo, entre los ordenadores personales, PCs. Se estima que, actualmente, (2007) un 90% de ellos usa Windows. Esta popularidad basada en la facilidad de uso sin conocimiento previo alguno, facilita la vulnerabilidad del sistema para el desarrollo de los virus, y así atacar sus puntos débiles, que por lo general son abundantes.
Falta de seguridad en esta plataforma, situación a la que Microsoft está dando en los últimos años mayor prioridad e importancia que en el pasado). Al ser un sistema muy permisivo con la instalación de programas ajenos a éste, sin requerir ninguna autentificación por parte del usuario o pedirle algún permiso especial para ello (en los Windows basados en NT se ha mejorado, en parte, este problema).
Software como Internet Explorer y Outlook Express, desarrollados por Microsoft e incluidos en forma predeterminada en las últimas versiones de Windows, son conocidos por ser vulnerables a los virus ya que éstos aprovechan la ventaja de que dichos programas están fuertemente integrados en el sistema operativo dando acceso completo, y prácticamente sin restricciones, a los archivos del sistema.
La escasa formación de un número importante de usuarios de este sistema, lo que provoca que no se tomen medidas preventivas por parte de estos, ya que este sistema está dirigido de manera mayoritaria a los usuarios no expertos en Informática. Esta situación es aprovechada constantemente por los programadores de virus.
En otros sistemas operativos como Mac OS X, Linux y otros basados en Unix las incidencias y ataques son prácticamente inexistentes. Esto se debe principalmente a:
Tradicionalmente los programadores y usuarios de sistemas basados en Unix/BSD han considerado la seguridad como una prioridad por lo que hay mayores medidas frente a virus tales como la necesidad de autenficación por parte del usuario como administrador o root para poder instalar cualquier programa adicional al sistema.
Los directorios o carpetas que contienen los archivos vitales del sistema operativo cuentan con permisos especiales de acceso, por lo que no cualquier usuario o programa puede acceder fácilmente a ellos para modificarlos o borrarlos. Existe una jerarquía de permisos y accesos para los usuarios.
Relacionado al punto anterior, a diferencia de los usuarios de Windows, la mayoría de los usuarios de sistemas basados en Unix no pueden normalmente iniciar sesiones como usuarios Administradores o root, excepto para instalar o configurar software, dando como resultado que, incluso si un usuario no administrador ejecuta un virus o algún software malicioso, éste no dañaría completamente el sistema operativo ya que Unix limita el entorno de ejecución a un espacio o directorio reservado llamado comúnmente home.
Estos sistemas, a diferencia de Windows, son usados para tareas más complejas como servidores que por lo general están fuertemente protegidos, razón que los hace menos atractivos para un desarrollo de virus o software malicioso.
Daños
Dado que una característica de los virus es el consumo de recursos, los virus ocasionan problemas tales como: pérdida de productividad, cortes en los sistemas de información o daños a nivel de datos.
Otra de las características es la posibilidad que tienen de ir replicándose. Las redes en la actualidad ayudan a dicha propagación cuando éstas no tienen la seguridad adecuada.
Otros daños que los virus producen a los sistemas informáticos son la pérdida de información, horas de parada productiva, tiempo de reinstalación, etc.
Hay que tener en cuenta que cada virus plantea una situación diferente.

Métodos de contagio

Existen dos grandes clases de contagio. En la primera, el usuario, en un momento dado, ejecuta o acepta de forma inadvertida la instalación del virus. En la segunda, el programa malicioso actúa replicándose a través de las redes. En este caso se habla de gusanos.
En cualquiera de los dos casos, el sistema operativo infectado comienza a sufrir una serie de comportamientos anómalos o imprevistos. Dichos comportamientos pueden dar una pista del problema y permitir la recuperación del mismo.
Dentro de las contaminaciones más frecuentes por interacción del usuario están las siguientes:
Mensajes que ejecutan automáticamente programas (como el programa de correo que abre directamente un archivo adjunto).
Ingeniería social, mensajes como ejecute este programa y gane un premio.
Entrada de información en discos de otros usuarios infectados.
Instalación de software pirata o de baja calidad.
En el sistema Windows puede darse el caso de que el ordenador pueda infectarse sin ningún tipo de intervención del usuario (versiones Windows 2000, XP y Server 2003) por virus como Blaster, Sasser y sus variantes, por el simple hecho de estar, la máquina conectada a una red o a Internet. Este tipo de virus aprovechan una vulnerabilidad de desbordamiento de búfer y puertos de red para infiltrarse y contagiar el equipo, causar inestabilidad en el sistema, mostrar mensajes de error y hasta reinicios involuntarios, reenviarse a otras máquinas mediante la red local o Internet, entre otros daños. En las últimas versiones de Windows 2000, XP y Server 2003 se ha corregido este problema en su mayoría. De manera frecuente, el usuario deberá descargar actualizaciones y parches de seguridad.

Métodos de protección
Los métodos para disminuir o reducir los riesgos asociados a los virus pueden ser los denominados activos o pasivos.

Antivirus: los llamados programas antivirus tratan de descubrir las trazas que ha dejado un software malicioso, para detectarlo y eliminarlo, y en algunos casos contener o parar la contaminación. Tratan de tener controlado el sistema mientras funciona parando las vías conocidas de infección y notificando al usuario de posibles incidencias de seguridad.
Filtros de ficheros: consiste en generar filtros de ficheros dañinos si el ordenador está conectado a una red. Estos filtros pueden usarse, por ejemplo, en el sistema de correos o usando técnicas de firewall. En general, este sistema proporciona una seguridad donde no se requiere la intervención del usuario, puede ser muy eficaz, y permitir emplear únicamente recursos de forma más selectiva.

viernes, 1 de agosto de 2008

La Inteligencia Artificial (IA)

La Inteligencia Artificial (IA) es la ciencia computacional que intenta la creación de programas para máquinas que imiten el comportamiento y la comprensión humana. También, el campo de la IA se caracteriza por la producción de máquinas para la automatización de tareas que requieran un comportamiento inteligente.

El tema de la IA es muy profundo, y a la vez muy controversial y discutido. La ciencia ficción a través de películas como IA, I Robot ó The Matrix (mi favorita), nos han metido en la cabeza que las máquinas pueden remplazar al ser humano, llegando a pensar como éste, y que posiblemente se revele tomando el control total.

Empecemos desde un principio, para ir comprendiendo ésta analogía. El hombre, en su necesidad de hacer grandes cálculos matemáticos, inventa el primer computador para hacer simplemente operaciones matemáticas. A medida de que fue avanzando la tecnología, se da cuenta de que puede aplicar las ciencias computacionales a la electromecánica, logrando que las máquinas hagan el trabajo de mano de obra duro, como ensamblajes de grandes maquinarias; ó ensamblaje de micro piezas, lo cual puede hacer una máquina a la perfección en cuestiones de segundos.

Así se aplica en todos los campos y en todas las ciencias hoy en día, por ejemplo en la medicina en donde se utilizan robots para hacer operaciones de precisión, y softwares inteligentes para detectar enfermedades ó hacer diagnósticos en tan solo segundos. Estos softwares se llaman Sistemas Basados en conocimiento, los cuales son muy útiles y se le introducen patrones ó comportamientos, y según se le va introduciendo datos, puede describir a que grupo pertenece tal patrón.

A mi entender, lo mas cerca que estamos de la IA son sistemas basados en conocimientos con capacidad de aprender. Me explico, un juego de ajedrez es un sistema basado en conocimiento, el cual tiene una serie de movimientos ó jugadas (patrones) y según los movimientos del oponente va ejecutando dichos patrones; hoy en día, podemos ver juegos de ajedrez inteligentes, de modo de que si le hacemos una jugada y logramos ganar, la maquina aprende dicha jugada, evitando que pueda ser derrotado con la misma estrategia. Patrones como estos, se utilizan comúnmente en sistemas para la milicia.

Aunque softwares inteligentes, puedan tener la capacidad de almacenar patrones de conducta, y de aprender y alimentar su base de datos; dudo mucho que algún día puedan superar la mente humana, ya que hay algo que nos separa de las máquinas: razonamiento y discernicion. Aunque una máquina pueda determinar según la información que tiene almacenada, de cómo actuar en un momento especifico, nunca tendrán el razonamiento de analizar todos los factores que rodean el entorno, y tomar una decisión, que pueda no ser la mas correcta, pero tal vez si la más conveniente; ni mucho menos tendrá la capacidad de producir emociones, lo cual es nuestra gran fortaleza a la hora de tomar decisiones, y según los genios de la IA, es a la vez nuestro gran fracaso.