martes, 8 de septiembre de 2015

La robótica
La robótica es la rama de la tecnología que se dedica al diseño, construcción, operación, disposición estructural, manufactura y aplicación de los robots.
La robótica combina diversas disciplinas como son: la mecánica, la electrónica, la informática, la inteligencia artificial, la ingeniería de control y la física. Otras áreas importantes en robótica son el álgebra, los autómatas programables, la anima trónica y las máquinas de estados.
El término robot se popularizó con el éxito de la obra R.U.R. (Robots Universales Rossum), escrita por Karel Čapek en 1920. En la traducción al inglés de dicha obra, la palabra checa robota, que significa trabajos forzados, fue traducida al inglés como robot
La historia de la robótica va unida a la construcción de "artefactos", que trataban de materializar el deseo humano de crear seres a su semejanza y que lo descargasen del trabajo. El ingeniero español Leonardo Torres Quevedo (GAP) (que construyó el primer mando a distancia para su automóvil mediante telegrafía sin hilo,[cita requerida] el ajedrecista automático, el primer transbordador aéreo y otros muchos ingenios) acuñó el término "automática" en relación con la teoría de la automatización de tareas tradicionalmente asociadas.
Karel Čapek, un escritor checo, acuñó en 1921 el término "Robot" en su obra dramática Rossum's Universal Robots / R.U.R., a partir de la palabra checa robota, que significa servidumbre o trabajo forzado. El término robótica es acuñado por Isaac Asimov, definiendo a la ciencia que estudia a los robots. Asimov creó también las Tres Leyes de la Robótica. En la ciencia ficción el hombre ha imaginado a los robots visitando nuevos mundos, haciéndose con el poder, o simplemente aliviando de las labores caseras.
Los robots se usan en diversos ámbitos y para cumplir tareas variadas: desde los brazos robóticos utilizados en la industria automotriz hasta el novedoso sistema quirúrgico Da Vinci, que permite practicar cirugías de alta complejidad poco invasivas y con una precisión sin precedentes; desde los robots espaciales diseñados para explorar la superficie de planetas desconocidos hasta la aspiradora doméstica Roomba, que realiza la limpieza de manera autónoma, o el Nano Air Vehicle (NAV), también llamado nanocolibrí, un pájaro utilizado para espionaje militar. Pero quizá los más llamativos sean los androides, que imitan la morfología, el comportamiento y el movimiento de los seres humanos. Uno de los más conocidos en la actualidad es ASIMO, pensado para llevar a cabo labores asistenciales y sociales. Aunque se encuentra en una etapa experimental, ASIMO es capaz de caminar o subir escaleras por sí solo.
Desde siempre, las personas han querido desarrollar seres animados con diferentes fines. Este deseo de dar vida, conjugado con el progreso mecánico, científico, tecnológico y electrónico a lo largo de la historia, dio lugar a la creación de los autómatas, máquinas que imitan la figura y los movimientos de un ser animado, antecedente directo de los robots.
Los primeros autómatas se remontan a la Antigüedad: egipcios y griegos fueron pioneros en el desarrollo de la mecánica y la ingeniería. Conocían y utilizaban a la perfección principios mecánicos como la rueda, el eje, la cuña, la palanca, el engranaje, la rosca y la polea, elementos que constituyen la base de muchos mecanismos empleados en la actualidad. Tenían también un profundo conocimiento de hidráulica y neumática, que usaban para dar movimiento a algunas estatuas.
En el siglo I d. C., Herón de Alejandría escribió el primer tratado de robótica, Los autómatas, y creó los primeros autómatas: el teodolito, un aparato que medía ángulos, distancias y desniveles, y el odómetro, que medía distancias recorridas.








La inteligencia artificial

La inteligencia artificial (IA) es un área multidisciplinaria, que a través de ciencias como las ciencias de la computación, la matemática, la lógica y la filosofía, estudia la creación y diseño de sistemas capaces de resolver problemas cotidianos por sí mismas utilizando como paradigma la inteligencia humana.
General y amplio como eso, reúne a amplios campos, los cuales tienen en común la creación de máquinas capaces de pensar. En ciencias de la computación se denomina inteligencia artificial a la capacidad de razonar de un agente no vivo.1 2 3John McCarthy acuñó la expresión «inteligencia artificial» en 1956, y la definió así: “Es la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes”.
Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles.
Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos).
Razonamiento mediante una lógica formal análogo al pensamiento abstracto humano.
También existen distintos tipos de percepciones y acciones, que pueden ser obtenidas y producidas, respectivamente, por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.
Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia, como ajedrez de computador, y otros videojuegos.
La inteligencia artificial es considerada una rama de la computación y relaciona un fenómeno natural con una analogía artificial a través de programas de computador. La inteligencia artificial puede ser tomada como ciencia si se enfoca hacia la elaboración de programas basados en comparaciones con la eficiencia del hombre, contribuyendo a un mayor entendimiento del conocimiento humano.


Si por otro lado es tomada como ingeniería, basada en una relación deseable de entrada-salida para sintetizar un programa de computador. "El resultado es un programa de alta eficiencia que funciona como una poderosa herramienta para quien la utiliza."
A través de la inteligencia artificial se han desarrollado los sistemas expertos que pueden limitar la capacidad mental del hombre y relacionan reglas de sintaxis del lenguaje hablado y escrito sobre la base de la experiencia, para luego hacer juicios acerca de un problema, cuya solución se logra con mejores juicios y más rápidamente que el ser humano. En la medicina tiene gran utilidad al acertar el 85 % de los casos de diagnóstico.


DEFINICIÓN DE INTELIGENCIA ARTIFICIAL


La inteligencia está vinculada a saber elegir las mejores opciones para resolver algún tipo de problema. Existen diversos tipos de inteligencia según sus atributos y procesos, como la inteligencia operativa, la inteligencia biológica o la inteligencia psicológica.
Artificial, por otra parte, es un adjetivo que señala aquello hecho por mano, arte o ingenio del hombre. Lo artificial también permite nombrar a lo no natural o falso.
La noción de inteligencia artificial fue desarrollada en referencia a ciertos sistemas creados por los seres humanos que constituyen agentes racionales no vivos. La racionalidad, en este caso, es entendida como la capacidad para maximizar un resultado esperado.
La inteligencia artificial, por lo tanto, consiste en el diseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento. Estos procesos se basan en secuencias de entradas que son percibidas y almacenadas por la mencionada arquitectura.
Los dispositivos que cuentan con inteligencia artificial pueden ejecutar distintos procesos análogos al comportamiento humano, como la devolución de una respuesta por cada entrada (similar a los actos reflejos de los seres vivos), la búsqueda de un estado entre todos los posibles según una acción o la resolución de problema mediante una lógica formal.
En la actualidad, la forma de inteligencia artificial más popular existe en los videojuegos, dado que su consumo es masivo. En este contexto, se aplica a enemigos y personajes controlados por el ordenador, para que su actuación a lo largo de la experiencia interactiva resulte creíble y parezca espontánea. Demás está decir que el tipo de inteligencia artificial utilizada en cada caso es diferente, y responde a una serie de necesidades particulares.
Antes de continuar, es importante aclarar que no debería malinterpretarse el concepto por la presencia del término “inteligencia”, el cual también suele comprenderse y usarse de forma incorrecta: una entidad virtual con una inteligencia artificial avanzada no necesariamente es rápida y hábil; programar un ser cuya prominente torpeza y lentitud parezcan creíbles también requiere de un gran trabajo en este campo.
Un ejemplo que vuelve más fácil la explicación se encuentra en los videojuegos de carreras; si retrocedemos en el tiempo dos décadas, a mediados de los años 90, analizamos a fondo un título respetado dentro de este género y lo comparamos con uno equivalente de la actualidad, seguramente notaremos que los coches de los contrincantes cometen muchos más errores hoy en día. ¿Es que son menos inteligentes? Por el contrario, su inteligencia artificial es muchas veces mayor, lo cual permite una emulación más precisa de la habilidad y las potenciales equivocaciones de un conductor real.
Sin lugar a dudas, una de las aplicaciones más interesantes y significativas de la inteligencia artificial es la investigación científica. Con la ayuda de un ordenador, y más aún un conjunto de ellos, se potencian considerablemente las posibilidades del ser humano de descubrir los misterios que tan apasionadamente viene persiguiendo desde hace siglos. Cuando se otorga a estos dispositivos la habilidad de aprender y de discernir, se los convierte en entidades que rozan las capacidades de un superhombre, dado que alcanzan velocidades de procesamiento imposibles para nosotros y que no necesitan descansar para funcionar, entre otras ventajas que los ubican por sobre los seres vivos en este contexto.


Seguridad informática

La seguridad informática o seguridad de tecnologías de la información es el área de la informática que se enfoca en la protección de la infraestructura computacional y todo lo relacionado con esta y, especialmente, la información contenida o circulante. Para ello existen una serie de estándares, protocolos, métodos, reglas, herramientas y leyes concebidas para minimizar los posibles riesgos a la infraestructura o a la información. La seguridad informática comprende software (bases de datos, metadatos, archivos), hardware y todo lo que la organización valore y signifique un riesgo si esta información confidencial llega a manos de otras personas, convirtiéndose, por ejemplo, en información privilegiada.
La definición de seguridad de la información no debe ser confundida con la de «seguridad informática», ya que esta última sólo se encarga de la seguridad en el medio informático, pero la información puede encontrarse en diferentes medios o formas, y no solo en medios informáticos.
La seguridad informática es la disciplina que se ocupa de diseñar las normas, procedimientos, métodos y técnicas destinados a conseguir un sistema de información seguro y confiable.
Puesto simple, la seguridad en un ambiente de red es la habilidad de identificar y eliminar vulnerabilidades. Una definición general de seguridad debe también poner atención a la necesidad de salvaguardar la ventaja organizacional, incluyendo información y equipos físicos, tales como los mismos computadores. Nadie a cargo de seguridad debe determinar quién y cuándo se puede tomar acciones apropiadas sobre un ítem en específico. Cuando se trata de la seguridad de una compañía, lo que es apropiado varía de organización a organización. Independientemente, cualquier compañía con una red debe de tener una política de seguridad que se dirija a conveniencia y coordinación.
La seguridad informática es una disciplina que se encarga de proteger la integridad y la privacidad de la información almacenada en un sistema informático. De todas formas, no existe ninguna técnica que permita asegurar la inviolabilidad de un sistema.

Un sistema informático puede ser protegido desde un punto de vista lógico (con el desarrollo de software) o físico (vinculado al mantenimiento eléctrico, por ejemplo). Por otra parte, las amenazas pueden proceder desde programas dañinos que se instalan en la computadora del usuario (como un virus) o llegar por vía remota (los delincuentes que se conectan a Internet e ingresan a distintos sistemas).
En el caso de los virus hay que subrayar que en la actualidad es amplísima la lista de ellos que existen y que pueden vulnerar de manera palpable cualquier equipo o sistema informático. Así, por ejemplo, nos encontramos con los llamados virus residentes que son aquellos que se caracterizan por el hecho de que se hallan ocultos en lo que es la memoria RAM y eso les da la oportunidad de interceptar y de controlar las distintas operaciones que se realizan en el ordenador en cuestión llevando a cabo la infección de programas o carpetas que formen parte fundamental de aquellas.
De la misma forma también están los conocidos virus de acción directa que son aquellos que lo que hacen es ejecutarse rápidamente y extenderse por todo el equipo trayendo consigo el contagio de todo lo que encuentren a su paso.
Los virus cifrados, los de arranque, los del fichero o los sobre escritura son igualmente otros de los peligros contagiosos más importantes que pueden afectar a nuestro ordenador.
Entre las herramientas más usuales de la seguridad informática, se encuentran los programas ANTIVIRUS, los cortafuegos o firewalls, la encriptación de la información y el uso de contraseñas (passwords).
Herramientas todas ellas de gran utilidad como también lo son los conocidos sistemas de detección de intrusos, también conocidos como anti-spyware. Se trata de programas o aplicaciones gracias a los cuales se puede detectar de manera inmediata lo que son esos programas espías que se encuentran en nuestro sistema informático y que lo que realizan es una recopilación de información del mismo para luego ofrecérsela a un dispositivo externo sin contar con nuestra autorización en ningún momento. Entre este tipo de espías destaca, por ejemplo, Gator.
Un sistema seguro debe ser íntegro (con información modificable sólo por las personas autorizadas), confidencial (los datos tienen que ser legibles únicamente para los usuarios autorizados), irrefutable (el usuario no debe poder negar las acciones que realizó) y tener buena disponibilidad (debe ser estable).
De todas formas, como en la mayoría de los ámbitos de la seguridad, lo esencial sigue siendo la capacitación de los usuarios. Una persona que conoce cómo protegerse de las amenazas sabrá utilizar sus recursos de la mejor manera posible para evitar ataques o accidentes.

En otras palabras, puede decirse que la seguridad informática busca garantizar que los recursos de un sistema de información sean utilizados tal como una organización o un usuario lo ha decidido, sin intromisiones


La Arquitectura de Computadoras.
La arquitectura de computadoras es el diseño conceptual y la estructura operacional fundamental de un sistema de computadoras. Es decir, es un modelo y una descripción funcional de los requerimientos y las implementaciones de diseño para varias partes de una computadora, con especial interés en la forma en que la unidad central de proceso (CPU) trabaja internamente y accede a las direcciones de memoria.
También suele definirse como la forma de seleccionar e interceptar componentes de harreare, para crear comp

computadoras según los requerimientos de funcionalidad, rendimiento y costo.
La computadora recibe y envía la información a través de los periféricos, por medio de los canales. La CPU es la encargada de procesar la información que le llega a la computadora. El intercambio de información se tiene que hacer con los periféricos y la CPU. Puede considerarse que todas aquellas unidades de un sistema, exceptuando la CPU, se denomina periférico, por lo que la computadora tiene dos partes bien definidas, que son:
La CPU (encargada de ejecutar programas y que también se considera compuesta por la memoria principal, la unidad aritmético lógica y la unidad de control), y
Los periféricos (que pueden ser de entrada, salida, entrada/salida, almacenamiento y comunicaciones).
La arquitectura de una computadora explica la situación de sus componentes y permite determinar las posibilidades de que un sistema informático, con una determinada configuración, pueda realizar las operaciones para las que se va a utilizar.
Cualquier usuario que desee adquirir un sistema informático, tanto si es una gran empresa como un particular, debe responder a una serie de preguntas previas: ¿qué se desea realizar con el nuevo sistema informático? ¿Cuáles son los objetivos a conseguir? ¿Qué software será el más adecuado para conseguir los objetivos marcados? ¿Qué impacto va a suponer en la organización (laboral o personal) la introducción del nuevo sistema informático?
Finalmente, cuando se haya respondido a estas preguntas, el usuario tendrá una idea aproximada de los objetivos que han de cumplir los diferentes sistemas informáticos a evaluar.

Se puede definir la arquitectura de computadores como el estudio de la estructura, funcionamiento y diseño de computadores. Esto incluye, sobre todo a aspectos de hardware, pero también afecta a cuestiones de software de bajo nivel.
Computador, dispositivo electrónico capaz de recibir un conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos numéricos, o bien compilando y relacionando otros tipos de información.

  Reseña histórica de los computadores
La era mecánica de los computadores
Podríamos decir que las máquinas mecánicas de calcular constituyendo la "era arcaica" o generación 0 de los computadores. Una evolución de estas máquinas son las máquinas registradoras mecánicas que aún existen en la actualidad. Otro elemento de cálculo mecánico que se utilizó hasta hace pocos años fue la regla de cálculo que se basa en el cálculo logaritmo y cuyo origen son los círculos de proporción de Neper. Ingenios clásicos de esa etapa fueran la máquina de Pascal, que podía realizar sumar, restas y, posteriormente, multiplicaciones y divisiones, y las dos máquinas de Charles Babbage: la máquina de diferencias y la analítica. Esta última fue la precursora de los computadores actuales.
La fase final de la en la mecánica de la informática y la constituyen los computadores electromecánicos basados en lógica de relés (década de los 30).
La era electrónica de los computadores
Los computadores envasados en elementos mecánicos planteaban ciertos problemas:
La velocidad de trabajo está limitada a inercia de la parte móvil.
La transmisión de la información por medios mecánicos (engranajes, palancas, etcétera.) es poco fiable y difícilmente manejable.
Los computadores electrónicos salvan estos inconvenientes ya que carecen de partes móviles y la velocidad de transmisión de la información por métodos eléctricos no es comparable a la de ningún elemento mecánico.
El primer elemento electrónico usado para calcular fue la válvula de vacío y, probablemente, el primer computador electrónico de uso general fue el E.N.I.A.C. (Electronic Numerical Integrator Calculator) construido en Universidad de Pennsylvania (1943-46). El primer computador de programa almacenado fue el E.D.V.A.C. (Electronic Discrete Variable Computer, 1945-51) basado en la idea de John Von Neumann, que también participó en el proyecto E.N.I.A.C. de que el programa debe almacenarse en la misma memoria que los datos.
Generaciones de ordenadores
En la evolución de las máquinas para el tratamiento automático de la información pueden distinguirse una acería que y tos que marcan la diferencia entre las denominadas generaciones de ordenadores. Las generaciones habidas hasta la actualidad han sido:
1ª generación: (1946-1955) Computadores basados en válvula de vacío que se programaron en lenguaje máquina o en lenguaje ensamblados.
2ª generación: (1953-1964) Computadores de transistores. Evolucionan los modos de direccionamiento y surgen los lenguajes de alto nivel.
3ª generación: (1964-1974) Computadores basados en circuitos integrados y con la posibilidad de trabajar en tiempo compartido.
4ª generación: (1974- ) Computadores Que integran toda la CPU en un solo circuito integrado (microprocesadores). Comienzan a proliferar las redes de computadores.