martes, 17 de noviembre de 2009

SISTEMAS EXPERTOS




SISTEMAS EXPERTOS






IntroducciónNuestro trabajo consta de cuatro partes:Historia y Definiciones del sistema experto; Generalmente los textos se organizan adaptanto una perspectiva histórica. En ellas se citan los problemas y soluciones más importantes que se han descubierto en el transcurso de su desarrollo.
Principales sistemas expertos y sus
características; Al trasncurrir el tiempo, después del descubrimiento de I.A., se quería que los ordenadores sean capaces de ayudar al hombre, por ello surgen los primeros sistemas expertos, después de muchos intentos fallidos se logró construir los primeros sistemas expertos los cuales eran bastante complicados estos fueron: DENDRAL, MYCIN, XCON, etc.
Lenguajes de programación; Estos sistemas expertos fueron elaborados en lenguaje de programación especiales en su momento de descubiertos fueron considerados obsoletos.
Principales
instituciones donde se investiga sistemas expertos en el Perú; Como sabemos vivimos en un mundo globalizado en la que es necesaria la tecnología y por ende el Perú esta tratando de integrarse a este mundo y por lo tanto tratando de investigar nuevos sistemas expertos.

Historia De Los Sistemas Expertos


Estas pensando que la inteligencia artificiales una cosa de los últimos 3, 5 o como mucho los 10 últimos años, pero NO!, los primeros pasos en la inteligencia artificial se dieron en los !AÑOS 50!. Tu te imaginas crear un programa inteligente con el Hardware de esa época. Sencillamente es increíble.
A comienzos de los años 50 el conocido Alan Mathinsong Turing publicó "Inteligencia y Funcionamiento de las
Máquinas" con el fin de demostrar hasta que punto estas tienen inteligencia.
En estos años se dieron varias definiciones de lo que significaba la inteligencia en una máquina. Sobre lo que denominamos la inteligencia artificial.
Definición de Elaim Reich:La inteligencia artificial es el estudio de como hacer que los ordenadores hagan cosas que, en estos momentos, hace mejor
el hombre.
Definición de Alexander Sporl (1971):
En su obra "Sporls-Computerbuch": Bajo Inteligencia entiendo la capacidad de un ser vivo o una máquina de ordenar informaciones, extensas observaciones, experiencias, descubrir interrelaciones para abstraer de esta forma cosas y poderlas ligar entre sí.
Uno de los primeros sistemas expertos se llamo Dendral y era capaz de calcular o descubrir hechos relativos a la
estructura molecular a partir de unos datos químicos sin elaborar.Otro sistemas expertos famosos son MYCIN que diagnostica enfermedades de la sangre y que sugiere un tratamiento y PUFF, un sistema similar pero para enfermedades de pulmón.
En el año 1950 el campo de la automática recibe un gran impulso cuando Wiener desarrolla el principio de la
retroalimentación. La teoría de la retroalimentación es base fundamental de los sistemas de control.
En 1955 Newell y Simon desarrollan la Teoría de la
lógica. Este desarrollo permitió desarrollar un programa que exploraba la solución a un problema utilizando ramas y nudos, seleccionando únicamente las ramas que más parecían acercarse a la solución correcta del problema.
En 1956, se celebra una
conferencia en Vermont (USA) de gran trascendencia en el desarrollo de la I.A. John McCarthy propone por primera vez el uso del término "Inteligencia Artificial" para denominar el estudio del tema.
En 1957, aparece la primera versión de "The General Problem Solver" (
GPS, Solucionador general de problemas), un programa capaz de solucionar problemas de sentido común pero no problemas del mundo real como diagnósticos médicos. El GPS utilizaba la teoría de la retroalimentación de Wiener..
En 1958 McCarthy anuncia su nuevo desarrollo
el lenguaje LISP (LISt Procesing), el lenguaje de elección para todos aquellos desarrolladores inmersos en el estudio de la IA.
En 1963, el Instituto Tecnológico de Massachussets (MIT) recibe una subvención de 2,2 millones de dólares del
gobierno de los Estados Unidos en concepto de investigación en el campo de la IA. De esa forma, se comprueba la importancia que el Gobierno concede a la investigación dentro de ese campo.
En 1965 aparece DENDRAL, el primer sistema experto. Es en ese año cuando Feigenbaum entra a formar parte del departamento de
informática de Stanford. Allí conoció a Joshua Lederberg, el cual quería averiguar cual era la estructura de las moléculas orgánicas completas. El objetivode DENDRAL fue estudiar un compuesto químico. El descubrimiento de la estructura global de un compuesto exigía buscar en un árbol las posibilidades, y por esta razón su nombre es DENDRAL que significa en griego "árbol".Antes de DENDRAL los químicos solo tenían una forma de resolver el problema, estar era tomar unas hipótesis relevantes como soluciones posibles, y someterlas a prueba comparándolas con los datos.
La realización de DENDRAL duró más de diez años (1965-1975). Se le puede considerar el primer sistema experto.
En 1965 también se empezaron a utilizar
técnicas para la resolución de problemas que se caracterizaban por la búsqueda heurística como modelo para la resolución de problemas, y con ellas comenzó la investigación y desarrollo de los sistemas expertos.
En 1972, en la
Universidad de Standford se desarrolla MYCIN, sistema experto dentro del campo de la medicina para diagnostico de enfermedades infecciosas en la sangre. MYCIN se trataba de un sistema experto para el diagnóstico de enfermedades infecciosas. Desde los resultados de análisis de sangre, cultivos bacterianos y demás datos, el prog rama era capaz de determinar, o en lo menos, sugerir el microorganismo que estaba causando la infección. Después de llegar a una conclusión, MYCIN prescribía una medicación que se adaptaba perfectamente a las características de la persona, tales como el peso corporal de este.
Al mismo tiempo, Davir Marr propone nuevas
teorías sobre la capacidad de reconocimiento visual de las diferentes máquinas.
En 1972 aparece el lenguaje PROLOG basado en las teorías de Minsky.
En 1973 se desarrolla el sistema experto llamado TIERESIAS. El cometido de este sistema experto era el de servir de intérprete entre MYCIN y los especialistas que lo manejaban, a la hora introducir nuevos conocimientos en su
base de datos. El especialista debía utilizar MYCIN de una forma normal, y cuando este cometiera un error en un diagnóstico (hecho producido por la falta o fallo de información en el árbol de desarrollo de teorías) TEIRESIAS corregiría dicho fallo destruyendo la regla si es falsa o ampliándola si es eso lo que se necesita.
En 1979 aparece XCON, primer programa que sale del
laboratorio Su usuario fue la Digital Equipament Corporation (DEC).
El cometido de XCON sería configurar todos los ordenadores que saliesen de la DEC. El
proyecto presentó resultados positivos y se empezó a trabajar en el proyecto más en serio en diciembre de 1978.
En abril de 1979 el equipo de investigación que lo había diseñado pensó que ya estaba preparado para salir, y fue entonces, cuando se hizo una prueba real, esperando resolver positivamente un 95% de las configuraciones, este porcentaje tal alto se quedó en un 20% al ser contrastado con la realidad; XCON volvió al laboratorio, donde fue revisado y a finales de ese mismo año funcionó con resultados positivos en la DEC.
En 1980 se instauró totalmente en DEC. Y en 1984, el XCOM había crecido hasta multiplicarse por diez. El XCOM supuso un
ahorro de cuarenta millones de dólares al año para la DEC.
Entre los años 80 a 85 se produce la
revolución de los Sistemas ExpertosEn estos 5 años se crearon diversos sistemas expertos como el DELTA, de General Electric Company, para la reparación de locomotoras diesel y eléctricas. "Aldo en Disco" para la reparación de calderas hidroestáticas giratorias usadas para la eliminación de bacterias.
Se crearon multitud de
empresas dedicadas a los sistemas expertos como Teknowledge Inc., Carnegie Group, Symbolics, Lisp Machines Inc., Thinking Machines Corporation, Cognitive Systems Inc. formando una inversión total de 300 millones de dólares. Los productos más importantes que creaban estas nuevas compañías eran las "máquinas Lisp", que se trataba de unos ordenadores que ejecutaban programas LISP con la misma rapidez que en un ordenador central, y el otro producto fueron las "herramientas de desarrollo de sistemas expertos".
En 1987 XCON empieza a no ser rentable. Los técnicos de DEC tuvieron que actualizar XCOM rápidamente llegándose a gastar más de dos millones de dólares al año para
mantenimiento y algo parecido ocurrió con el DELTA..También en 1987 aparecieron los microordenadores Apple y compatibles IBM con una potencia parecida a los LISP. El software se transfirió a máquinas convencionales utilizando el lenguaje "C" lo que acabó con el LISP.
A partir de los 90 y con el desarrollo de la informática, se produce un amplio desarrollo en el campo de la IA y los sistemas expertos, pudiéndose afirmar que estos se han convertido en una herramienta habitual en determinadas empresas en la actualidad.
La
evolución histórica de los métodos utilizados en el desarrollo de los sistemas expertos también se ha producido a medida que se ha ido desarrollando la IA y los diferentes métodos que se han empleado para su resolución. El desarrollo de lenguajes como LISP y PROLOG condicionaron esa evolución, así como investigaciones en diversos campos relacionados. Los primeros sistemas expertos que se desarrollaron en los años 60 eran capaces de resolver solo problemas basados en situaciones determinadas, mediante sistemas de reglas .Es a partir de los 70 cuando se empiezan a resolver problemas basados en situaciones inciertas, basados en medidas difusas al principio y en redes probabilísticas con posterioridad.










Sus principales aplicaciones se dan en las gestiones empresariales debido a que;a) Casi todas las empresas disponen de un ordenador que realiza las funciones básicas de tratamiento de la información: contabilidad general, decisiones financieras, gestión de la tesorería, planificación, etc.
b) Este
trabajo implica manejar grandes volúmenes de información y realizar operaciones numéricas para después tomar decisiones. Esto crea un terreno ideal para la implantación de los SE.
Además los SE también se aplican en la contabilidad en apartados como: Auditoria(es el campo en el que más aplicaciones de SE se esta realizando) Fiscalidad, planificación,
análisis financiero y la contabilidad financiera.



ÁREAS DE APLICACIÓN

Los SE se aplican a una gran diversidad de campos y/o áreas. A continuación se listan algunas de las principales:
Militar
Informática
Telecomunicaciones
Química
Derecho
Aeronáutica
Geología
Arqueología
Agricultura
Electrónica
Transporte
Educación
Medicina
Industria
Finanzas y Gestión


VENTAJAS.-Estos programas proporcionan la capacidad de trabajar con grandes cantidades de información, que son uno de los grandes problemas que enfrenta el analista humano que puede afectar negativamente a la toma de decisiones pues el analista humano puede depurar datos que no considere relevantes, mientras un SE debido a su gran velocidad de proceso analiza toda la información incluyendo las no útiles para de esta manera aportar una decisión más sólida.
LIMITACIONES.-Es evidente que para actualizar se necesita de reprogramación de estos (tal vez este sea una de sus limitaciones más acentuadas) otra de sus limitaciones puede ser el elevado
costo en dinero y tiempo, además que estos programas son poco flexibles a cambios y de difícil acceso a información no estructurada.
Debido a la
escasez de expertos humanos en determinadas áreas, los SE pueden almacenar su conocimiento para cuando sea necesario poder aplicarlo. Así mismo los SE pueden ser utilizados por personas no especializadas para resolver problemas. Además si una persona utiliza con frecuencia un SE aprenderá de él.
Por otra parte la inteligencia artificial no ha podido desarrollar sistemas que sean capaces de resolver problemas de manera general, de aplicar el sentido común para resolver situaciones complejas ni de controlar situaciones ambiguas.
El futuro de los SE da vueltas por la cabeza de cada persona, siempre que el campo elegido tenga la necesidad y/o presencia de un experto para la obtención de cualquier tipo de beneficio.

ARQUITECTURA BÁSICA DE LOS SISTEMAS EXPERTOS



Base de conocimientos. Es la parte del sistema experto que contiene el conocimiento sobre el dominio. hay que obtener el conocimiento del experto y codificarlo en la base de conocimientos. Una forma clásica de representar el conocimiento en un sistema experto son lar reglas. Una regla es una estructura condicional que relaciona lógicamente la información contenida en la parte del antecedente con otra información contenida en la parte del consecuente.
Base de hechos (
Memoria de trabajo). Contiene los hechos sobre un problema que se han descubierto durante una consulta. Durante una consulta con el sistema experto, el usuario introduce la información del problema actual en la base de hechos. El sistema empareja esta información con el conocimiento disponible en la base de conocimientos para deducir nuevos hechos.
Motor de inferencia. El sistema experto modela el proceso de razonamiento humano con un módulo conocido como el motor de inferencia. Dicho motor de inferencia trabaja con la información contenida en la base de conocimientos y la base de hechos para deducir nuevos hechos. Contrasta los hechos particulares de la base de hechos con el conocimiento contenido en la base de conocimientos para obtener conclusiones acerca del problema.
Subsistema de explicación. Una característica de los sistemas expertos es su habilidad para explicar su razonamiento. Usando el módulo del subsistema de explicación, un sistema experto puede proporcionar una explicación al usuario de por qué está haciendo una pregunta y cómo ha llegado a una conclusión. Este módulo proporciona beneficios tanto al diseñador del sistema como al usuario. El diseñador puede usarlo para detectar errores y el usuario se beneficia de la transparencia del sistema.
Interfaz de usuario. La
interacción entre un sistema experto y un usuario se realiza en lenguaje natural. También es altamente interactiva y sigue el patrón de la conversación entre seres humanos. Para conducir este proceso de manera aceptable para el usuario es especialmente importante el diseñodel interfaz de usuario. Un requerimiento básico del interfaz es la habilidad de hacer preguntas. Para obtener información fiable del usuario hay que poner especial cuidado en el diseño de las cuestiones. Esto puede requerir diseñar el interfaz usando menús o gráficos.

Lenguajes de programación

Son programas que se han diseñado principalmente para emular un
comportamiento inteligente. Incluyen algoritmos de juego tales como el ajedrez, programas de comprensión del lenguaje natural, visión por computadora, robótica y "sistemas de expertos". responde a una interfaz ensamblador, el segundo a interfaz compilador y el ultimo a interfaz interprete.Un Lenguaje de Programación se basa en reglas de acción (silogismos) , y el análisis de posibilidades dándonos una ayuda muy útil en todas las ramas de la acción humana. Es así como los Sistemas Expertos desarrollan una Función muy importante "Realizar tareas genéricas: es decir para la monitorización y el diagnóstico, además de los trabajos de simulación de la realidad (Realidad Virtual en la actualidad) .
Algunos lenguajes son lenguajes principalmente interpretados, como APL, PROLOG y LISP. :
APL (A Programing Language)
Diseñado para tablas,
vectores y matrices; utiliza símbolos especiales, distintos que el ASCII.
HISTORIA:Introducido por Kenneth Iverson, en el año de 1962. Durante los siguientes 7 años IBM trabajo en el APL, defino un conjunto de caracteres y un lenguaje "APL/360", el cual se requiere un hardware especial.Conceptos lisp:
· Listas y Átomos: La estructura más importante es la lista. Los átomos pueden subordinarse a cualidades.
· La Función: Cada función LISP y cada programa LISP tiene estructura de lista. Los programas no pueden distinguirse sintácticamente de los datos. LISP ofrece sus propias
funciones básicas.
· Forma de Trabajo: LISP es un lenguaje funcional. Ofrece la posibilidad de realizar definiciones recursivas de funciones. La unión de procedimientos se realiza de forma
dinámica, es decir en plena ejecución, y no como en otros lenguajes de programación. El sistema realiza automáticamente una gestión dinámica de memoria.
Entonces: La estructura más importante en LISP es la lista Componentes de un sistema lisp.
Un componente importante de un sistema LISP es la gestión dinámica de
la memoria. El sistema administrará el espacio en la memoria para las listas en constante modificación, sin que el usuario lo deba solicitar. Libera los espacios de memoria que ya no son necesarios y los pone a disposición de usos posteriores. La necesidad de este proceso se deriva de la estructura básica de LISP, las listas, que se modifican de forma dinámica e ilimitada. Además un sistema LISP abarca bastante más que el solo intérprete del lenguaje LISP. Consta de algunos módulos que ofrecen ayuda en el desarrollo y control del progreso en programas, como son el Editor, el File-System y el Trace.PROLOGO (PROgramación LOGica):


Mecanismos Del Prolog

La Recursividad representa la estructura más importante en el desarrollo del programa. En la sintaxis del PROLOG no existen los bucles FOR ni los saltos; los bucles WHILE son de difícil incorporación, ya que las
variables sólo pueden unificarse una sóla vez. La recursión es más apropiada que otras estructuras de desarrollo para procesar estructuras de datos recursivas como son las listas y destacan en estos casos por una representación más sencilla y de mayor claridad. La Instanciación es la unión de una variable a una constante o estructura. La variable ligada se comporta luego como una constante. La Verificación es el intento de derivar la estructura a comprobar de una pregunta desde la base de conocimientos, es decir, desde los hechos y reglas. Si es posible, la estructura es verdadera, en caso contrario es falsa. La Unificación es el componente principal de la verificación de estructuras. Una estructura estará comprobada cuando puede ser unificada con un hecho, o cuando puede unificarse con la cabecera de una regla y las estructuras del cuerpo de dicha regla pueden ser verificadas.
Rita, Rosie, Y Roos.
Para el desarrollo de los sistemas expertos se utilizan lenguajes de
ingeniería del conocimiento. Los lenguajes más difundidos para el desarrollo de los SE son RITA, ROSIE, y ROOS.
Comenzaremos hablando de ROSIE, un lenguaje evolucionado de RITA. Este lenguaje permite al programador describir relaciones complejas y manipularlas simbólica y deductivamente. Además soporta trabajo en redes, trabaja en una forma Interactiva compilada e interpretada y cuenta con una serie de depuradores y herramientas de programación. Como puede ser programada en una sintaxis parecida al Ingles esto la hace bastante leíble y entendible para los usuarios. Este lenguaje integra dos
paradigmas programáticos que lo hace especial: modelacimiento basado en reglas y procedure-oriented computing (al ser lenguajes secuenciales y al mismo tiempo orientados a objetos), y por último es que puede ser organizado como un programa LISP lo que la hace fácil de aprender.El lenguaje ROSS, es un lenguaje de programación orientado a objetos, y combina la Inteligencia Artificial y los Sistemas Expertos principalmente en el área de simulaciones. Entre sus ventajas se citan las facilidades para buscar entre objetos y su comportamiento. El programa se desarrolla de una forma que los objetos se comunican mandando mensajes para causar que las reglas o comportamientos apropiados sean ejecutados.
Se presenta en forma resumida dos Sistemas Expertos que fueron decisivos para el
éxito del avance investigador en el campo de los Sistemas Expertos.

Mycin

Sistema Experto para diagnósticos médicos:
MYCIN es un Sistema Experto para la realización de diagnósticos, iniciado pro Ed Feigenbaum y posteriormente desarrollados por E.Shortliffe y sus colaboradores. Su función es la de aconsejar a los médicos en la investigación y determinación de diagnósticos en el campo de las enfermedades infecciosas de la sangre. El sistema MYCIN, al ser consultado por el médico, solicita primero datos generales sobre el paciente: nombre, edad, síntomas, etc. Una vez conocida esta información por parte del sistema, el Sistema Experto plantea unas hipó
tesis. Para poder verificarlas comprueba primero la exactitud de las premisas de la regla (Os preguntareis como hace esto). Esto se realiza mediante una búsqueda de enunciados correspondientes en la base de conocimientos. Estos enunciados pueden a su vez estar de nuevo en la parte de consulta de otra regla. También lo realiza mediante determinadas preguntas al usuario. Aquí se hacen preguntas del tipo: ¿Se ha practicado en el paciente algún tipo de intervención quirúrgica?
Con las respuestas que recibe, el MYCIN verifica o rechaza las hipótesis planteadas. Una serie de tests han demostrado que MYCIN trabaja igual de bien que un médico.( A mi particularmente me cuesta mucho creerlo y me parece que es increíble, pero ahí están los resultados de los
test).

XcoN



Sistema Experto para configuración de Ordenadores:
XCON es un Sistema Experto para configuraciones desarrollado por la Digital Equipment Corporation. Según los deseos individuales del
cliente se configuran redes de ordenadores VAX. Ya que el abanico de productos que se ofrecen en el mercado es muy amplio, la configuración completa y correcta de un sistema de estas características es un problema de gran complejidad. Las funciones de este Sistema Experto son las siguientes: ¿Pueden conjugarse los componentes solicitados por el cliente de forma conveniente y razonable?
¿Los componentes de sistema especificados son compatibles y completos?Las respuestas a estas preguntas son muy detalladas. XCON es capaz de comprobar y completar los pedidos entrantes mucho más rápido y mejor que las personas encargadas hasta ahora de esa laborTambién se han desarrollado Asesores Inteligentes para apoyar la
enseñanza de programación, en distintos lugares y con distintas arquitecturas. Entre otros, podemos mencionar:


COACH (Cognitive Adaptive Computer Help):

Permite crear ayuda personalizada al usuario. Es un observador de las acciones del usuario que está aprendiendo a operar un ambiente, y en base a ellas construye un modelo adaptativo del usuario. Si bien el concepto general es aplicable para áreas diversas tales como las Interfases Inteligentes y el soporte técnico, en particular es de interés para este trabajo ya que los dominios de prueba que modeló corresponden al de un lenguaje y un entorno de programación (LISP y UNIX, respectivamente); así como por la prueba de adaptabilidad a distintos dominios en que probó ser efectivo. En dicha prueba, después de completar el desarrollo y pruebas del tutor bajo el dominio de LISP, se encargó a un estudiante inexperto, su adaptación al dominio de UNIX; dado el éxito de la adaptación, a pesar de la inexperiencia del constructor del dominio, Selker concluye que la aplicación de los conceptos y modelación del dominio son apropiados para diversos dominios, y por lo tanto, fácilmente adaptables.Una de las contribuciones importantes de Coach consiste en la descripción de diversos modelosde usuarios, representados por medio de frames adaptativos; y el modelado cognitivo de variables tales como la experiencia, la latencia del conocimiento. Por otro lado, el análisis de resultados que hace Selker, basado en el comportamiento registrado por los usuarios de sistemas tradicionales y los del sistema asesor, muestra variables cuantificables para medir el éxito de un sistema similar como el que ocupa este trabajo.

CONCLUSIONES
Actualmente el duro, difícil y cambiante mercado competitivo se vuelve más complejo por la gran diversidad de información que se ven obligados a almacenar y analizar, razón por la cual las empresas se ven en la necesidad de recurrir a poderosas y/o robustas
herramientas o sistemas que les sirvan de soporte a la hora de tomar decisiones. De esta forma estos inteligentes, precisos y eficientes sistemas son adoptados por más organizaciones, en las cuales se convierten y/o transforman en una importante estrategia de negocio.
Por otra parte es importante mencionar que estos seguirán siendo usados en los todos y cada una de las áreas y/o campos donde los expertos humanos sean escasos. Por consecuencia de lo anterior estos sistemas son utilizados por personas no especializadas, por lo cual el uso frecuente de los (SE) les produce y/o genera conocimiento a los usuarios.

Bibliografía
www.dei.va.educpy\tar17\sexpreti\historia.htmwww.sarder.upeu.edu.pe\~miguel+\temas\expertos.htmwww.fotunecity.com\skycod.per\ronrow\207\se\portada.htmwww.
monografias.com


INTELIGENCIA ARTIFICIAL




Él termino "
inteligencia artificial" fue acuñado formalmente en 1956 durante la conferencia de Darthmounth, más para entonces ya se había estado trabajando en ello durante cinco años en los cuales se había propuesto muchas definiciones distintas que en ningún caso habían logrado ser aceptadas totalmente por la comunidad investigadora. La AI es una de las disciplinas más nuevas que junto con la genética moderna es el campo en que la mayoría de los científicos " más les gustaría trabajar".
Una de las grandes razones por la cuales se realiza el estudio de la IA es él
poder aprender más acerca de nosotros mismos y a diferencia de la psicología y de la filosofía que también centran su estudio de la inteligencia, IA y sus esfuerzos por comprender este fenómeno están encaminados tanto a la construcción de entidades de inteligentes como su comprensión.
El estudio de la inteligencia es una de las disciplinas más antiguas, por más de 2000 años los
filósofos no han escatimado esfuerzos por comprender como se ve, recuerda y razona junto con la forma en que estas actividades deberían realizarse. Según John Mc Carthy la inteligencia es la "capacidad que tiene el ser humano de adaptarse eficazmente al cambio de circunstancias mediante el uso de información sobre esos cambios", pero esta definición resulta muy amplia ya que de acuerdo con esta, el sistema inmunológico del cuerpo humanó resultaría inteligente ya que también mediante el uso de información este logra adaptarse al cambio. Otra interesante manera de ilustrar la inteligencia seria recurrir a la teoría societal de la mente de Marvin Minsky donde cada mente humana es el resultado del accionar de un comité de mentes de menor poder que conversan entre sí y combinan sus respectivas habilidades con el fin de resolver problemas.
La llegada de las
computadoras a principios de los 50, permitió el abordaje sin especulación de estas facultades mentales mediante una autentica disciplina teórica experimental. Es a partir de esto que se encontró que la IA constituye algo mucho más complejo de lo que se pudo llegar a imaginar en principio ya que las ideas modernas que constituyen esta disciplina se caracterizan por su gran riqueza, sutileza e interés; en la actualidad la IA abarca una enorme cantidad de subcampos que van desde áreas de propósito general hasta tareas especificas.
Una de las definiciones que se han dado para describir la IA la sitúa dentro de una disciplina que tiene que ver con las
ciencias de la computación que corresponden al esfuerzo por parte de gran cantidad de científicos que durante los últimos treinta años han realizado con el fin de dotar a las computadoras de inteligencia, a partir de esta definición encontramos que una de las técnicas de IA es aquella que se utiliza con el fin de lograr que un determinado programa se comporte de forma inteligente sin pretender tener en cuenta la " forma de razonamiento "empleada para lograr ese comportamiento.
Luego, aquí surge un dilema, ya que según esto cualquier problema resoluble por un
computador, sin complicaciones y también como un ser humano podría encuadrarse en el campo de la inteligencia artificial acudiendo solamente a la aplicación de reglas consecutivas al pie de la letra o lo que encontramos con el nombre de Algoritmos dentro del lenguaje de IA; este termino fue acuñado en honor al matemático árabe AL-KWARIZMI que copiló una serie de estos para ser aplicados a diferentes problemas algebraicos.
Cuando se aplican
algoritmos a la solución de los problemas aunque no se está actuando inteligentemente si esta siendo eficaz pero los problemas realmente complicados a los que se enfrenta el ser humano son aquellos en los cuales no existe algoritmo conocido así que surgen de reglas que tratan de orientarnos hacia las soluciones llamadas Heurísticas en las cuales nunca nada nos garantiza que la aplicación de una de estas reglas nos acerque a la solución como ocurre con los anteriores.
A partir de estos
datos; Farid Fleifel Tapia describe a la IA como: "la rama de la ciencia de la computación que estudia la resolución de problemas no algorítmicos mediante el uso de cualquier técnica de computación disponible, sin tener en cuenta la forma de razonamiento subyacente a los métodos que se apliquen para lograr esa resolución.
Para completar esa definición, algunas definiciones no tan formales emitidas por diferentes investigadores de la IA que consideran otros puntos de vista son:
o La IA es el
artede crear maquinas con capacidad de realizar funciones que realizadas por personas requieren de inteligencia. ( Kurzweil, 1990)
o La IA es el estudio de cómo lograr que las computadoras realicen tareas que, por el momento, los humanos hacen mejor. (Rich, Knight, 1991).
o La IA es la rama de
la ciencia de la computación que se ocupa de la automatización de la conducta inteligente. (Lugar y Stubblefied, 1993).
o La IA es el campo de estudio que se enfoca a la explicación y emulación de la conducta inteligente en
función de procesos computacionales. (Schalkoff, 1990).
En la IA se puede observar dos enfoques diferentes:
1. La IA concebida como el intento por desarrollar una
tecnología capaz de proveer al ordenador capacidades de razonamiento similares a los de la inteligencia humana.
2. La IA en su concepción como
investigación relativa a los mecanismos de la inteligencia humana que se emplean en la simulación de validación de teorías.
El primer enfoque se centra en la
utilidad y no en el método como veíamos anteriormente con los algoritmos, los temas claves de este enfoque son la representación y gestión de conocimiento, sus autores más representativos son McCrrthy y Minsky.
En el segundo enfoque encontramos que este se orienta a la creación de un sistema artificial capaz de realizar procesos cognitivos humanos haciendo importante ya no la utilidad como el método, los aspectos fundamentales de este enfoque se refieren al
aprendizaje y adaptabiliada y sus autores son Newell y Simon de la Carnegie Mellon University.
La IA al tratar de construir maquinas que se comporten aparentemente como seres humanos han dado lugar al surgimiento de dos bloques enfrentados: el enfoque simbólico o top-down, conocido como la IA clásica y el enfoque subsimbolico llamado a veces conexionista.
Los simbólicos simulan directamente las características inteligentes que se pretenden conseguir o imitar y lo mejor que también se tiene a la mano es
el hombre; para los constructores de los sistemas expertos resulta fundamental la representación del conocimiento humano donde gracias a estos avances se han encontrado dos tipos de conocimiento: conocimiento acerca del problema particular¨ y ¨conocimiento a cerca de cómo obtener mas conocimiento a partir del que ya tenemos¨. El ejemplo más representativo de esta corriente es el proyecto de Cyc de Douglas B. Lenat sobre un sistema que posee en su memoria millones de hechos interconectados.
Dentro de la otra corriente: la subsimbolica; sus esfuerzos se orientan a la simulación de los elementos de mas bajo nivel dentro de los procesos inteligentes con la esperanza de que estos al combinarse permitan que espontáneamente surja el comportamiento inteligente. Los ejemplos mas claros que trabajan con este tipo de orientación son las
redes neuronales y los algoritmos genéticos donde estos sistemas trabajan bajo la autonomía, el aprendizaje y la adaptación, conceptos fuertemente relacionados.
Uno de los grandes seguidores de la IA; Marvin Minsky, ha dado una clasificación para los
lenguajes de programación que se utilizan en esta disciplina:
Marvin Minsky
· ¨Haga ahora¨: Donde el programador surte de instrucciones a la maquina para realizar una tarea determinada donde todo queda especificado excepto quizás él numero de repeticiones.
· ¨Haga siempre que¨: Aquí se permite escribir un programa que le sirva a
la computadora para resolver aquello problemas que el programador no sabe resolver pero conoce que tipo de soluciones se pueden intentar.
· "De constreñimiento": se escriben
programas que definen estructuras y estados que se condicionan y limitan recíprocamente.
Pero Minsky, admite que aún será necesario desarrollar dos tipos de lenguajes más para obtener una IA comparable a la inteligencia humana; y estos podrían ser.
o "Haga algo que tenga sentido¨: Donde se permite al programa aprender del pasado y en una nueva situación aplicar sus enseñanzas.
o "Mejórense a sí mismo": Allí se podrá permitir escribir programas que tengan en adelante la capacidad de escribir programas mejores que ellos mismos.
Otro punto desde luego tiene que ver con el tema que aquí estamos tratando es por supuesto el
concepto de lo que es creatividad , que a simple vista es algo que no podemos explicar porque es resultado de un don especial pero que los estudios sobre IA han comenzado hacer posible dar explicación satisfactoria: nos dicen que en la medida que se logre escribir programas que exhiban propiedad, en esa misma medida se empezara a explicar la creatividad.
Otra propiedad que se espera ver asociada a la IA es la autoconciencia; que de acuerdo con los resultados de las
investigaciones psicológicas hablan por una parte de que como es bien sabido, el pensamiento humano realiza gran cantidad de funciones que no se pueden calificar de conscientes y que por lo tanto la autoconciencia contribuye en cierto sentido a impedir el proceso mental eficiente; pero por otro lado es de gran importancia poder tener conocimiento sobre nuestras propias capacidades y limitaciones siendo esto de gran ayuda para el funcionamiento de la inteligencia tanto de la maquina como del ser humano.
Pero seria imposible tratar de contemplar el tema de la IA sin recurrir a la cuestión de la complejidad; donde el comportamiento inteligente es el resultado de la
interacción de muchos elementos y que con seguridad es una de las más valiosas contribuciones al tratar de simular en la maquina los fenómenos intelectuales humanos.
La IA se ha desarrollado como disciplina a partir de la concepción de la inteligencia que se realizo al interior de la psicología y a partir de la cual se elaboraron diferentes categorías.
La inteligencia: Diferentes teorías y definiciones.
En 1904 el ministerio de instrucción publica de
Francia pidió al psicólogo francés Alfred Binet y a un grupo de colegas suyos que desarrollan un modo de determinar cuales alumnos de la escuela primaria corrían el riesgo de fracasar para que estos alumnos reciban una atención compensatoria. De sus esfuerzos nacieron las primeras pruebas de inteligencia. Importadas a los EEUU varios años después las pruebas se difundieron ampliamente así como la idea de que existiera algo llamado " inteligencia" que podía medirse de manera objetiva y reducirse a un numero o puntaje llamado " coeficiente intelectual" desde entonces sé a definido la inteligencia en términos de "habilidad para resolver problemas".



I.INTELIGENCIAS MULTIPLES
Un psicólogo de Harvard llamado Howard Garden, señalo que nuestra
cultura había definido la inteligencia de manera muy estrecha y propuso en su libro " estructura de la mente", la existencia de por lo menos siete inteligencias básicas:
· Inteligencia
lingüística: capacidad de usar las palabras de modo efectivo (ya sea hablando, escribiendo, etc). Incluye la habilidad de manipular la sintaxis o escritura del lenguaje, la fonética o los sonidos del lenguaje, la semántica o significado de lenguaje o división, pragmática o los usos prácticos.
· Inteligencia lógico
matemática: capacidad de usar los números de manera efectiva y de razonar adecuadamente (pensamiento vertical).
· Inteligencia espacial: la habilidad para percibir la manera exacta del mundo visual-espacial y de ejecutar transformaciones sobre esas percepciones (decorador, artistas, etc).
· Inteligencia corporal – cinética: la capacidad para usar el cuerpo para expresar ideas y sentimientos y facilidad en el uso de las propias manos para producir o transformar cosas.
· Inteligencia musical: capacidad de percibir, discriminar, trasformar y expresar las formas musicales.
· Inteligencia interpersonal: la capacidad de percibir y establecer distinciones entre los estados de ánimo, las intenciones, motivaciones, sentimientos, de otras personas.
· Inteligencia intrapersonal:
el conocimiento de sí mismo y la habilidad para adaptar las propias maneras de actuar a partir de ese conocimiento.
Más allá de la
descripción de las inteligencias y de sus fundamentos teóricos hay ciertos aspectos que convienen destacar:
o Cada
persona posee varios tipos de inteligencias.
o La mayoría de las personas pueden desarrollar cada inteligencia hasta un nivel adecuado de
competencia.
o Las inteligencias por lo general trabajan juntas de manera compleja, ósea, siempre interactúan entre sí para realizar la mayoría de las tareas se precisan todas las inteligencias aunque en niveles diferentes hay muchas maneras de ser inteligentes en cada categoría.
Inteligencia emocional: existe una dimensión de la inteligencia
personal que está ampliamente mencionada aunque poco explorada en las elaboraciones de Gadner: el papel de las emociones.
Daniel Goleman; toma este desafío y comienza a trabajar sobre el
desarrollo de Gadner llevando a un plano más pragmático y centrado en las emociones como foco de la inteligencia.
FUTURO DE LA IA.
El
empleo de la IA esta orientado a aquellas profesiones que, ya sea por lo incomodo, peligroso o complicado de su trabajo necesitan apoyo de un experto en la materia. Las ventajas que trae el disponer de un asistente artificial no son mas que las de solucionar los errores y defectos propios del ser humano; es decir, el desarrollo de sistemas expertos que hoy en día se están utilizando con éxito en los campos de la medicina, geología y aeronáutica aunque todavía están poco avanzados en relación con el ideal del producto IA completo.

Técnicas y campos de la Inteligencia Artificial:

· Aprendizaje Automático (Machine Learning)
· Ingeniería del conocimiento (Knowledge Engineering)
· Lógica difusa (Fuzzy Logic)
· Redes neuronales artificiales (Artificial Neural Networks)
· Sistemas reactivos (Reactive Systems)
· Sistemas multi-agente (Multi-Agent Systems)
· Sistemas basados en reglas (Rule-Based Systems)
· Razonamiento basado en casos (Case-Based Reasoning)
· Sistemas expertos (Expert Systems)
· Redes Bayesianas (Bayesian Networks)
· Vida artificial (Artificial Life). La VA no es un campo de la IA, sino que la IA es un campo de la VA.
o Computación evolutiva (Evolutionary Computation)
o Estrategias evolutivas
o Algoritmos genéticos (Genetic Algorithms)
· Técnicas de Representación de Conocimiento
o Redes semánticas (Semantic Networks)
o Frames
· Vision artificial
· Audicion artificial
· Lingüística computacional
· Procesamiento del lenguaje natural (Natural Language Processing)
· Minería de datos (Data Mining)





miércoles, 14 de octubre de 2009

SISTEMAS OPERATIVOS








Evolución de los Sistemas Operativos

Historia de los sistemas operativos:

A fines de los 40´s el uso de computadores estaba restringido a aquellas empresas o instituciones que podían pagar su alto precio, y no existían los sistemas operativos, en su lugar, el programador debía tener un conocimiento y contacto profundo con el hardware, y en el infortunado caso de que su programa fallara, debía examinar los valores de los registros y paneles de luces indicadores del estado de la computadora para determinar la causa del dallo y poder corregir su programa, además de enfrentarse nuevamente a los procedimientos de apartar tiempo del sistema y poner a punto los compiladores, limadores, etc.; para volver a correr su programa, es decir, enfrentaba el problema del procesamiento serial (serial processing).

La importancia de los sistemas operativos nace históricamente desde los 50´s, cuando se hizo evidente que el operar una computadora por medio de tableros enchufables en la primera generación y luego por medio del trabajo en lote en la segunda generación se podía mejorar notoriamente, pues el operador realizaba siempre una secuencia de pasos repetitivos, lo cual es una de las características contempladas en la definición de lo que es un programa, es decir, se comenzó a ver que las tareas mismas del operador podían plasmarse en un programa, el cual a través del tiempo y por su enorme complejidad se le llamo "sistema operativo". Así, tenemos entre los primeros sistemas operativos al Fortran Monitor Sistem ( FMS ) e IBSYS:
Posteriormente, en la tercera generación de computadoras nace uno de los primeros sistemas operativos en la filosofía de administrar una familia de computadoras: el OS/360 de IBM. Fue este un proyecto tan novedoso y ambicioso que enfrento por primera vez un serie de problemas conflictivos debido a que anteriormente las computadoras eran creadas para dos propósitos en general: el comercial y el científico, así, el tratar de crear un solo sistema operativo para computadoras que podían dedicarse a un propósito, el otro o ambos, puso en evidencia la problemática del trabajo en equipos de análisis, diseño e implantación de sistemas grandes. El resultado fue un sistema del cual uno de sus mismos diseñadores patentizo su opinión en la portada de un libro: una horda de bestias prehistóricas atascadas en un foso de brea.
Surge también en la tercera generación de computadoras el concepto de la multiprogramación, por que debido al alto costo de las computadoras era necesario idear un esquema de trabajo que mantuviese a la unidad central de procesamiento mas tiempo ocupada, así como el encolado (spooling) de trabajos para su lectura hacia los lugares libres de memoria o la escritura de resultados. Sin embargo, se puede afirmar que los sistemas durante la tercera generación siguieron siendo básicamente sistemas de lote.

¿Qué es un sistema operativo?
Un Sistema Operativo es un programa que actúa como intermediario entre el usuario y el hardware de un
computador y su propósito es proporcionar un entorno en el cual el usuario pueda ejecutar programas. El objetivo principal de un Sistema Operativo es, entonces, lograr que el Sistema de computación se use de manera cómoda, y el objetivo secundario es que el hardware del computador se emplee de manera eficiente.Un Sistema Operativo es una parte importante de cualquier sistema de computación. Un sistema de computación puede dividirse en cuatro componentes: el hardware, el Sistema Operativo, los programas de aplicación y los usuarios. El hardware (Unidad Central de Procesamiento(UCP), memoria y dispositivos de entrada/salida (E/S)) proporciona los recursos de computación básicos. Los programas de aplicación (compiladores, sistemas de bases de datos, juegos de vídeo y programas para negocios) definen la forma en que estos recursos se emplean para resolver los problemas de computación de los usuarios.
Característica de un Sistema Operativo.En general, se puede decir que un Sistema Operativo tiene las siguientes características:Conveniencia. Un Sistema Operativo hace más conveniente el uso de una computadora.
Eficiencia. Un Sistema Operativo permite que los recursos de la computadora se usen de la manera más eficiente posible. Habilidad para evolucionar. Un Sistema Operativo deberá construirse de manera que permita el desarrollo, prueba o introducción efectiva de nuevas funciones del sistema sin interferir con el servicio. Encargado de administrar el hardware. El Sistema Operativo se encarga de manejar de una mejor manera los recursos de la computadora en cuanto a hardware se refiere, esto es, asignar a cada proceso una pàrte del procesador para poder compartir los recursos. Relacionar dispositivos (gestionar a través del kernel). El Sistema Operativo se debe encargar de comunicar a los dispositivos periféricos, cuando el usuario así lo requiera. Organizar datos para acceso rápido y seguro. Manejar las comunicaciones en red. El Sistema Operativo permite al usuario manejar con alta facilidad todo lo referente a la instalación y uso de las redes de computadoras. Procesamiento por bytes de flujo a través del bus de datos. Facilitar las entradas y salidas. Un Sistema Operativo debe hacerle fácil al usuario el acceso y manejo de los dispositivos de Entrada/Salida de la computadora. Técnicas de recuperación de errores. Evita que otros usuarios interfieran. El Sistema Operativo evita que los usuarios se bloqueen entre ellos, informándoles si esa aplicación esta siendo ocupada por otro usuario. Generación de estadísticas. Permite que se puedan compartir el hardware y los datos entre los usuarios. El software de aplicación son programas que se utilizan para diseñar, tal como el procesador de palabras, lenguajes de programación, hojas de cálculo, etc. El software de base sirve para interactuar el usuario con la máquina, son un conjunto de programas que facilitan el ambiente plataforma, y permite el diseño del mismo. El Software de base está compuesto por : Cargadores. Compiladores. Ensambladores. Macros.

VERCIONES DE SISTEMAS OPERATIVOS DE MICROSOFT

Windows 1.0

En 1985 Microsoft publicó la primera versión de Windows, una interfaz gráfica de usuario (GUI) para su propio sistema operativo (MS-DOS) que había sido incluido en el IBM PC y ordenadores compatibles desde 1981.
La primera versión de Microsoft Windows Premium nunca fue demasiado potente ni tampoco se hizo popular. Estaba severamente limitada debido a los recursos legales de
Apple, que no permitía imitaciones de sus interfaces de usuario. Por ejemplo, las ventanas sólo podían disponerse en mosaico sobre la pantalla; esto es, nunca podían solaparse u ocultarse unas a otras. Tampoco había "papelera de reciclaje" debido a que Apple creía que ellos tenían la patente de este paradigma o concepto. Ambas limitaciones fueron eliminadas cuando el recurso de Apple fue rechazado en los tribunales. Por otro lado, los programas incluidos en la primera versión eran aplicaciones "de juguete" con poco atractivo para los usuarios profesionales.

Windows 2.0

Apareció en 1987, y fue un poco más popular que la versión inicial. Gran parte de esta popularidad la obtuvo de la inclusión en forma de versión "run-time" de nuevas aplicaciones gráficas de Microsoft, Microsoft Excel y Microsoft Word para Windows. Éstas podían cargarse desde MS-DOS, ejecutando Windows a la vez que el programa, y cerrando Windows al salir de ellas. Windows 2 todavía usaba el modelo de memoria 8088 y por ello estaba limitado a 1 megabyte de memoria; sin embargo, mucha gente consiguió hacerlo funcionar bajo sistemas multitareas como DesqView.

Windows 3.0

La primera versión realmente popular de Windows fue la versión 3.0, publicada en
1990. Ésta se benefició de las mejoradas capacidades gráficas para PC de esta época, y también del microprocesador 80386, que permitía mejoras en las capacidades multitarea de las aplicaciones Windows. Esto permitiría ejecutar en modo multitarea viejas aplicaciones basadas en MS-DOS. Windows 3 convirtió al IBM PC en un serio competidor para el Apple Macintosh.


OS/2

OS/2 es un sistema operativo de IBM que intentó suceder a DOS como sistema operativo de los PC. Se desarrolló inicialmente de manera conjunta entre Microsoft e IBM, hasta que la primera decidió seguir su camino con su Windows 3.0 e IBM se ocupó en solitario de OS/2.





OS/2.1

Durante la segunda mitad de los 80, Microsoft e IBM habían estado desarrollando conjuntamente OS/2 como sucesor del DOS, para sacar el máximo provecho a las capacidades del procesador Intel 80286. OS/2 utilizaba el direccionamiento hardware de memoria disponible en el Intel 80286 para poder utilizar hasta 16 MB de memoria. La mayoría de los programas de DOS estaban por el contrario limitados a 640 KB de memoria. OS/2 1.x también soportaba memoria virtual y multitarea.
Más adelante IBM añadió, en la versión 1.1 de OS/2, un sistema gráfico llamado Presentation Manager (PM). Aunque en muchos aspectos era superior a Windows, su
API (Programa de Interfaz de Aplicaciones) era incompatible con la que usaban los programas de este último. (Entre otras cosas, Presentation Manager localizaba el eje de coordenadas X, Y en la parte inferior izquierda de la pantalla como las coordenadas cartesianas, mientras que Windows situaba el punto 0,0 en la esquina superior izquierda de la pantalla como otros sistemas informáticos basados en ventanas).
A principio de los 90, crecieron las tensiones en la relación entre IBM y Microsoft. Cooperaban entre sí en el desarrollo de sus sistemas operativos para PC y cada uno tenía acceso al código del otro. Microsoft quería desarrollar Windows aún más, mientras IBM deseaba que el futuro trabajo estuviera basado en OS/2. En un intento de resolver estas diferencias, IBM y Microsoft acordaron que IBM desarrollaría OS/2 2.0 para reemplazar a OS/2 1.3 y Windows 3.0, mientras Microsoft desarrollaría un nuevo sistema operativo, OS/2 3.0, para suceder más adelante al OS/2 2.0.
Este acuerdo pronto fue dejado de lado y la relación entre IBM y Microsoft terminó. IBM continuó desarrollando IBM OS/2 2.0 mientras que Microsoft cambió el nombre de su (todavía no publicado) OS/2 3.0 a
Windows NT.
(Microsoft promocionó Windows NT con tanto éxito que la mayoría de la gente no se dio cuenta de que se trataba de un OS/2 remozado.) Ambos retuvieron los derechos para usar la tecnología de OS/2 y Windows desarrollada hasta la fecha de terminación del acuerdo.

OS/2 2.0

IBM publicó OS/2 versión 2.0 en 1992. Esta versión suponía un gran avance frente a OS/2 1.3. Incorporaba un nuevo sistema de ventanas orientado a objetos llamado Workplace Shell como sustituto del Presentation Manager, un nuevo sistema de ficheros, HPFS, para reemplazar al sistema de ficheros FAT de DOS usado también en Windows y aprovechaba todas las ventajas de las capacidades de 32 bit del procesador Intel 80386. También podía ejecutar programas DOS y Windows, ya que IBM había retenido los derechos para usar el código de DOS y Windows como resultado de la ruptura.

OS/2 3.0 y 4.0

IBM continuó vendiendo OS/2, produciendo versiones posteriores como OS/2 3.0 (también llamado Warp) y 4.0 (Merlin). Pero con la llegada de Windows 95, OS/2 comenzó a perder cuota de mercado. Aunque OS/2 seguía corriendo aplicaciones de Windows 3.0, carecía de soporte para las nuevas aplicaciones que requerían Windows 95. Al contrario que con Windows 3.0, IBM no tenía acceso al código fuente de Windows 95; y tampoco tenía el tiempo ni los recursos necesarios para emular el trabajo de los programadores de Microsoft con Windows 95; no obstante, OS/2 3.0 (Warp) apareció en el mercado antes que Windows 95 (que se retrasaba respecto a la fecha inicial de lanzamiento); como mejoras incorporaba una reducción en los requisitos de hardware (pasaba de pedir 8 Mb de memoria RAM de su antedecesor OS/2 2.1 a pedir sólo 4 Mb), y como gran añadido, incorporaba el llamado BonusPack, un conjunto de aplicaciones de oficina, comunicaciones, etc que ahorraban el tener que comprar software adicional como en el caso de Windows. Todo esto unido a una gran campaña publicitaria y a un muy reducido precio (el equivalente a unos 59.40 € frente a los 100 € de Windows) provocaron que mucha gente se animase a probarlo en lugar de esperar la llegada de Windows 95. Lamentablemente, el posterior abandono por parte de IBM hizo que fuese quedando relegado (aunque sigue siendo utilizado -cada vez menos- en sectores bancarios por su alta estabilidad).

Windows 3.1 y Windows 3.11

En respuesta a la aparición de OS/2 2.0 , Microsoft desarrolló Windows 3.1, que incluía diversas pequeñas mejoras a Windows 3.0 (como las fuentes escalables
TrueType), pero que consistía principalmente en soporte multimedia. Más tarde Microsoft publicó el Windows 3.11 (denominado Windows para trabajo en grupo), que incluía controladores y protocolos mejorados para las comunicaciones en red y soporte para redes punto a punto.



Windows NT

Mientras tanto Microsoft continuó desarrollando Windows NT. Para ello reclutaron a Dave Cutler, uno de los jefes analistas de VMS en Digital Equipment Corporation (hoy parte de Compaq, que en 2005 fue comprada por HP) para convertir NT en un sistema más competitivo.
Cutler había estado desarrollando un sucesor del VMS en DEC (Digital Equipment Corporation) llamado Mica, y cuando DEC abandonó el proyecto se llevó sus conocimientos y algunos ingenieros a Microsoft. DEC también creyó que se llevaba el código de Mica a Microsoft y entabló una demanda. Microsoft finalmente pagó 150 millones de dólares y acordó dar soporte al
microprocesador Alpha de DEC en NT.
Siendo un sistema operativo completamente nuevo, Windows NT sufrió problemas de compatibilidad con el
hardware y el software existentes. También necesitaba gran cantidad de recursos y éstos estaban solamente disponibles en equipos grandes y caros. Debido a esto muchos usuarios no pudieron pasarse a Windows NT. La interfaz gráfica de NT todavía estaba basada en la de Windows 3.1 que era inferior a la Workplace Shell de OS/2.

Windows NT 3.1

Windows NT 3.1 (la estrategia de marketing de Microsoft era que Windows NT pareciera una continuación de Windows 3.1) apareció en su versión beta para desarrolladores en la Conferencia de Desarrolladores Profesionales de julio de 1992 en San Francisco. Microsoft anunció en la conferencia su intención de desarrollar un sucesor para Windows NT y Chicago (que aún no había sido lanzada). Este sucesor habría de unificar ambos sistemas en uno sólo y su nombre clave era Cairo. (Visto en retrospectiva Cairo fue un proyecto más difícil de lo que Microsoft había previsto y como resultado NT y Chicago no sería unificados hasta la aparición de
Windows XP). Las versiones antiguas de Windows NT se distribuían en disquettes y requerían unos elevados recursos de hardware (además de soportar relativamente poco hardware) por lo que no se difundieron demasiado hasta llegar a Windows NT 4.0 y sobre todo a Windows 2000. Por primera vez daba soporte para el sistema de ficheros NTFS.

Windows NT 3.5/3.51
Cabe destacar que la interfaz gráfica de Windows NT 3.5 y Windows 3.51 era la misma que la de sus predecesores, Windows NT 3.1 y Windows 3.1, con el Administrador de Programas. Por otra parte, Microsoft distribuyó un añadido llamado NewShell, cuyo nombre completo es "Shell Technology Preview Update", que no era otra cosa más que una versión Beta de la nueva interfaz gráfica de Windows 95 y NT 4.0, con el botón y menú inicio, pero para Windows NT 3.5x. Su función principal era que los usuarios de Windows evaluaran el nuevo interfaz gráfico, que iba a ser presentado en Windows 95 y NT 4.0, pero como "daño colateral" le daba a Windows NT 3.5x la nueva interfaz gráfica.

Windows NT 4.0

Windows NT 4.0 presentaba varios componentes tecnológicos de vanguardia y soporte para diferentes plataformas como MIPS, ALPHA, Intel, etc. Las diferentes versiones como Workstation, Server, Terminal server, Advancer server, permitían poder adaptarlo a varias necesidades. El uso de componentes como tarjetas de sonido, módems, etc, tenían que ser diseñados específicamente para este sistema operativo.

Windows 95

Microsoft adoptó "Windows 95" como nombre de producto para Chicago cuando fue publicado en agosto de
1995. Chicago iba encaminado a incorporar una nueva interfaz gráfica que compitiera con la de OS/2. Aunque compartía mucho código con Windows 3.x e incluso con MS-DOS, también se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea preemptiva, como OS/2 o el mismo Windows NT. Sin embargo sólo una parte de Chicago comenzó a utilizar arquitectura de 32 bits, la mayor parte siguió usando una arquitectura de 16 bits, Microsoft argumentaba que una conversión completa retrasaría demasiado la publicación de Chicago y sería demasiado costosa.
Microsoft desarrolló una nueva API para remplazar la API de Windows de 16 bits. Esta API fue denominada
Win32, desde entonces Microsoft denominó a la antigua API de 16 bits como Win16. Esta API fue desarrollada en tres versiones: una para Windows NT, otra para Chicago y otra llamada Win32s, que era un subconjunto de Win32 que podía ser utilizado en sistemas con Windows 3.1.; de este modo Microsoft intentó asegurar algún grado de compatibilidad entre Chicago y Windows NT, aunque los dos sistemas tenían arquitecturas radicalmente diferentes
Windows 95 tenía dos grandes ventajas para el consumidor medio. Primero, aunque su interfaz todavía corría sobre MS-DOS, tenía una instalación integrada que le hacía aparecer como un solo sistema operativo (ya no se necesitaba comprar MS-DOS e instalar Windows encima). Segundo, introducía un subsistema en
modo protegido que estaba especialmente escrito a procesadores 80386 o superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran el área de memoria de otras aplicaciones Win32. En este respecto Windows 95 se acercaba más a Windows NT, pero a la vez, dado que compartía código de Windows 3.x, las aplicaciones podían seguir bloqueando completamente el sistema en caso de que invadiesen el área de aplicaciones de Win16.
Tenía también como novedad el incluir soporte para la tecnología Plug&Play. Windows 95 se convirtió en el primer gran éxito de los de Redmond a nivel mundial. La evolución de Internet y la potencia de los equipos, cada vez más capaces, dio lugar a un binomio en el que Intel y Microsoft dominaban el panorama mundial con solvencia. Los fabricantes comenzaban a volcarse en este sistema a la hora de sacar sus controladores de dispositivos y, aunque con algunos problemas por incompatibilidades inevitables, el éxito de la plataforma fue absoluto.
Más adelante fue lanzada una versión con compatibilidad para USB (1.0) que permitía ejecutarse en computadores (ordenadores) con pocas prestaciones en Hardware. Esta versión salió al mercado en octubre de 1998.

Windows 98
El 25 de junio de 1998 llegó Windows 98. Incluía nuevos controladores de hardware y el sistema de ficheros FAT32 (también soportado por Windows 95 OSR 2 y OSR 2.5) que soportaba particiones mayores a los 2 GB permitidos por Windows 95. Dio soporte también a las nuevas tecnologías como DVD, FireWire, USB o AGP. Era novedosa también la integración del explorador de Internet en todos los ámbitos del sistema.
Pero la principal diferencia de Windows 98 sobre Windows 95 era que su núcleo había sido modificado para permitir el uso de controladores de Windows NT en Windows 9x y viceversa. Esto se consiguió con la migración de parte del núcleo de Windows NT a Windows 98, aunque éste siguiera manteniendo su arquitectura MS-DOS/Windows GUI. Esto permitió la reducción de costes de producción, dado que Windows NT y Windows 98 ahora podían utilizar casi idénticos controladores.

Windows 98 Second Edition (SE)
A principios de 1998 se desarrolló este sistema operativo, saliendo al mercado a finales de 1998, cuando Microsoft sacó al mercado Windows 98 Second Edition, cuya característica más notable era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola línea telefónica. También eliminaba gran parte de los errores producidos por Internet Explorer en el sistema. Esta versión es la más estable de todas las de esta serie, y aún se sigue utilizando en muchos equipos, mejorando en sí dos cosas importantes:
1) El grave error de solicitud de licencia que simplemente se puede dejar pasar por alto en la instalación cuando se copian los archivos con extensión ".CAB" (sin comillas) a la unidad de disco duro de la computadora (CPU u ordenador) en la primera versión de este sistema operativo
2) Se corrigen las extensiones de archivo y aplicaciones para una optimización y mejor administración de memoria virtual, reduciendo así los famosos mensajes de error en pantalla azul.
Windows Millenium Edition (ME)

En 2000 Microsoft introdujo Windows ME, que era una copia de Windows 98 con más aplicaciones añadidas. Windows ME fue un proyecto rápido de un año para rellenar el hueco entre Windows 98 y el nuevo Windows XP, y eso se notó mucho en la poca estabilidad de esta versión. En teoría, Windows 2000 iba a ser la unificación entre las dos familias de Windows, la empresarial y la de hogar, pero por retrasos se lanzó este pequeño avance. En esta versión se aceleraba el inicio del sistema y oficialmente ya no se podía distinguir entre el MS-DOS y el entorno gráfico (aunque aparecieron parches que permitían volver a separarlo como se hacía en versiones anteriores).
Esta versión no traía unidad de proceso de 16 bits y se centró únicamente en la compatibilidad con nuevo hardware de 32 bits. Como consecuencia, sólo funcionaba correctamente con los equipos nuevos que lo tenían instalado, ya que si se instalaba sobre un equipo antiguo (mediante una actualización de software) el hardware de 16 bits era más complejo de configurar, o bien no funcionaba en absoluto.
Cabe destacar que este
sistema operativo fue muy poco popular por sus continuos errores y muchas desventajas de uso. Estos inconvenientes hicieron que, salvo en contadas ocasiones, sus usuarios retornaran rápidamente al uso de Windows 98, o bien que dieran el salto a Windows 2000.

Windows 2000

En este mismo año vio la luz Windows 2000, una nueva versión de Windows NT muy útil para los administradores de sistemas y con una gran cantidad de servicios de red y lo más importante: admitía dispositivos Plug&Play que venían siendo un problema con Windows NT.
La familia de Windows 2000 estaba formada por varias versiones del sistema: una para las estaciones de trabajo (Windows 2000 Professional) y varias para servidores (Windows 2000 Server, Advanced Server, Datacenter Server).
Windows 2000 incorporaba importantes innovaciones tecnológicas para entornos Microsoft, tanto en nuevos servicios como en la mejora de los existentes. Algunas de las características que posee son:

Almacenamiento:
Soporte para
FAT16, FAT32 y NTFS.
Cifrado de ficheros (
EFS).
Servicio de indexación.
Sistema de archivos distribuido (
DFS).
Nuevo sistema de backup (
ASR).
Sistema de tolerancia a fallos (
RAID) con discos dinámicos (software).
Comunicaciones:
Servicios de acceso remoto (
RAS, VPN, RADIUS y Enrutamiento).
Nueva versión de
IIS con soporte para HTTP/1.1.
Active Directory.
Balanceo de carga (clustering)
Servicios de instalación desatendida por red (
RIS).
Servicios nativos de
Terminal Server.
Estos avances marcan un antes y un después en la historia de Microsoft.

Windows XP (eXPerience)

La unión de Windows NT/2000 y la familia de Windows 9.x se alcanzó con Windows XP puesto en venta en 2001 en su versión Home y Professional. Windows XP usa el núcleo de Windows NT. Incorpora una nueva interfaz y hace alarde de mayores capacidades multimedia. Además dispone de otras novedades como la multitarea mejorada, soporte para redes inalámbricas y asistencia remota. Se puede agregar que inmediatamente después de haber lanzado el último Service Pack (SP2), Microsoft diseñó un sistema orientado a empresas y corporaciones, llamado Microsoft Windows XP Corporate Edition, algo similar al Windows XP Profesional, solo que diseñado especialmente para empresas. En el apartado multimedia, XP da un avance con la versión Media Center(2002-2005). Esta versión ofrece una interfaz de acceso fácil con todo lo relacionado con multimedia (TV, fotos, reproductor DVD, Internet...).

Windows Server 2003

Sucesor de la familia de servidores de Microsoft a Windows 2000 Server. Es la versión de Windows para servidores lanzada por Microsoft en el año 2003. Está basada en el núcleo de Windows XP, al que se le han añadido una serie de servicios, y se le han bloqueado algunas de sus características (para mejorar el rendimiento, o simplemente porque no serán usadas).






Windows Vista

Windows Vista apareció en el mercado el 30 de enero de 2007. Cabe destacar los continuos retrasos en las fechas de entrega del sistema operativo. Inicialmente se anunció su salida al mercado a inicios-mediados de 2006; posteriormente y debido a problemas durante el proceso de desarrollo, se retrasó su salida hasta finales de 2006. El último retraso trasladó la fecha hasta finales de enero de 2007. Estos continuos retrasos han llevado a Microsoft a tomar diversas medidas para minimizar los gastos extras derivados de los retrasos. Por ejemplo, en Argentina, se podrá comprar Windows Vista con un "ticket" que la persona adquiere al momento de comprar un nuevo PC que no tiene instalado todavía Windows Vista. Podrán canjear el "ticket" por una copia original de Windows Vista y así actualizar su sistema. También cabe destacar que Windows Vista trae una nueva interfaz gráfica llamada Aero, que es una evolución de la interfaz gráfica denominada Luna de Windows XP.

Este sistema operativo, como el Windows ME, ha sido criticado por su falta de compatibilidad, entre otras cosas, haciendo que la mayoría de los usuarios regresen a su antecesor Windows XP o que migren a Mac OS X o GNU/Linux.


Windows Server 2008

Al igual que su sucesor,
Windows Server 2003 se basaba en la última versión del SO doméstica publicada. Éste se basa en Windows Vista en cuanto a su interfaz Aero, mucho más amigable y sencilla, y en Windows Server 2003 SP2.


Windows 7

Windows 7 (anteriormente conocido con nombre código Blackcomb, y luego Vienna) es la más reciente versión de Microsoft Windows, un sistema operativo producido por Microsoft Corporation para uso en PC, incluyendo equipos de escritorio en hogares y oficinas, equipos portátiles, "tablet PC", "netbooks" y equipos media center.[2] El desarrollo de Windows 7 se completó el 22 de julio de 2009, siendo entonces confirmada su fecha de venta oficial para el 22 de octubre de 2009. Su equivalente para servidores, Windows Server 2008 R2, será lanzado al mismo tiempo.
A diferencia de su antecesor, Windows 7 es una actualización incremental del núcleo
NT 6.0, ésto con la meta de mantener cierto grado de compatibilidad con aplicaciones y hardware en los que Windows Vista ya era compatible.[3] Las metas de desarrollo para Windows 7 fueron el mejorar su interfaz para hacerla más amena al usuario e incluir nuevas características que permitieran hacer tareas de una manera más fácil y rápida, al mismo tiempo en que se realizarían esfuerzos para lograr un sistema más ligero, estable y rápido.
Diversas presentaciones dadas por la compañía en el 2008 se enfocaron en demostrar capacidades
multitáctiles, una interfaz rediseñada junto con una nueva barra de tareas y un sistema de redes domésticas denominado Grupo en el Hogar, además de mejoras de rendimiento.


SISTEMAS OPERATIVOS SOFTWARE LIBRE

GNU/Linux es uno de los términos empleados para referirse al sistema operativo libre similar a Unix que utiliza el núcleo Linux y herramientas de sistema GNU. Su desarrollo es uno de los ejemplos más prominentes de software libre; todo el código fuente puede ser utilizado, modificado y redistribuido libremente por cualquiera bajo los términos de la GPL (Licencia Pública General de GNU) y otras licencias libres.[1]
A pesar de que
Linux sólo es el núcleo de este sistema operativo una parte significativa de la comunidad, así como muchos medios generales y especializados, prefieren utilizar dicho término. Para más información consulte la sección "Denominación GNU/Linux" o el artículo "Controversia por la denominación GNU/Linux".
Las variantes de este sistema se denominan
distribuciones y su objetivo es ofrecer una edición que cumpla con las necesidades de determinado grupo de usuarios.
Algunas
distribuciones son especialmente conocidas por su uso en servidores y supercomputadoras.[2] No obstante, es posible instalar GNU/Linux en una amplia variedad de hardware como computadoras de escritorio y portátiles.
El nombre GNU, GNU's Not Unix (GNU no es Unix), viene de las
herramientas básicas de sistema operativo creadas por el proyecto GNU, iniciado por Richard Stallman en 1983 y mantenido por la FSF. El nombre Linux viene del núcleo Linux, inicialmente escrito por Linus Torvalds en 1991.
La contribución de GNU es la razón por la que existe controversia a la hora de utilizar Linux o GNU/Linux para referirse al sistema operativo formado por las herramientas de GNU y el núcleo Linux en su conjunto.
El proyecto
GNU, iniciado en 1983 por Richard Stallman,[5] tiene como objetivo el desarrollo de un sistema operativo Unix completo compuesto enteramente de software libre. La historia del núcleo Linux está fuertemente vinculada a la del proyecto GNU. En 1991 Linus Torvalds empezó a trabajar en un reemplazo no comercial para MINIX[6] que más adelante acabaría siendo Linux.
Cuando la primera versión del
núcleo Linux fue liberada el proyecto GNU ya había producido varios de los componentes fundamentales del sistema operativo, incluyendo un intérprete de comandos, una biblioteca C y un compilador, pero su núcleo Hurd no estaba lo suficientemente maduro como para completar el sistema operativo.
Entonces, el
núcleo creado por Linus Torvalds, quien se encontraba por entonces estudiando en la Universidad de Helsinki, llenó el "espacio" final que en sistema operativo de GNU
Linux es un
núcleo de sistema operativo libre tipo Unix. Es utilizado por la familia de sistemas operativos GNU/Linux. Lanzado bajo la licencia pública general de GNU y desarrollado gracias a contribuciones provenientes de todo el mundo, Linux es uno de los ejemplos más notables de software libre.
Linux fue creado por
Linus Torvalds en 1991. Muy pronto, la comunidad de Minix (un clon de Unix) contribuyó en el código y en ideas para el núcleo Linux. Por aquel entonces, el Proyecto GNU ya había creado muchos de los componentes necesarios para obtener un sistema operativo libre, pero su propio núcleo (GNU Hurd) era incompleto y por lo tanto no podían conseguir un sistema libre totalmente funcional. Es por esto que a pesar de las funcionalidades limitadas de la primera versión, rápidamente Linux fue acumulando desarrolladores y usuarios que adoptaron el código de estos proyectos para usar con el nuevo sistema operativo. Hoy en día el núcleo Linux ha recibido contribuciones de miles de programadores.

Mac OS X (pronunciado Mac O-Ese Diez; en España habitualmente se pronuncia mac o-ese-equis) es una línea de
sistemas operativos computacionales desarrollada, comercializada y vendida por Apple Inc.
Se basa en
Unix[4] y usa una interfaz gráfica desarrollada por Apple llamada Aqua, que se inspira libremente en la interfaz de Mac OS Classic. El gestor de ventanas X11, característico en la familia de sistemas Unix, y Java se usan sólo para compatibilidad con software no nativo de Mac
Perspectiva general
Apple decidió reemplazar el sistema operativo
Mac OS 9 con uno nuevo basado en NeXTSTEP, porque Classic carecía de características requeridas en un sistema operativo contemporáneo. El sistema operativo NeXTSTEP fue desarrollando por la empresa NeXT, la cual fue adquirida por Apple.
Mac OS X Server fue lanzado en el año 1999 y se diferencia por incorporar diferentes herramientas administrativas para la gestión de redes y servicios de red.
Este sistema tiene a su vez un subsistema llamdo
Darwin (bajo APSL, una licencia open source[5] ) que proporciona a Mac OS X prestaciones modernas, como la memoria protegida, la multitarea por desalojo o expulsiva, la gestión avanzada de memoria y el multiproceso simétrico. Sin embargo, las capas superiores del sistema (por ejemplo el subsistema gráfico en general) son código cerrado.
Mac OS X incorpora diferentes tecnologías: Quartz Extreme,
[6] Core Image,[7] Core Audio,[8] Core Video, OpenGL[9] y QuickTime[10] entre otras.
Entornos de desarrollo
Cocoa, la nueva interfaz de programación orientada a objetos de Mac OS X (heredada de OpenStep). Como lenguaje de programación utiliza Objective-C, aunque también es accesible desde otros lenguajes como Java.
Classic, la interfaz de programación nativa de Mac OS Classic. Es una interfaz programable en C y Pascal. Necesita de un simulador de Mac OS 9 para poder ejecutar estos binarios en Mac OS X. Esta interfaz ya no está disponible en la nueva familia de Macintosh basados en procesadores Intel.
Carbon, una adaptación de la interfaz de programación Classic para poder compilar las aplicaciones en binarios que se ejecutan en Mac OS X sin emulación, con objeto de facilitar la transición de los programas originalmente creados para Mac OS 9.
Una interfaz
BSD compatible con POSIX y UNIX®.
En el 2006 Apple decidió migrar sus máquinas desde el procesador
PowerPC a procesadores Intel,[11] con lo que introdujeron los llamados binarios universales, es decir, aplicaciones que contienen el código binario de ambas plataformas para su ejecución transparente.
Además, en el 2006 Apple empezó a introducir aplicaciones de 64 bits, lo cual ha dado lugar a que una aplicación Mac OS X pueda tener hasta cuatro binarios distintos: 32 bits PowerPC, 64 bits PowerPC, 32 bits Intel y 64 bits Intel.

Versiones
La letra X se corresponde con el número romano 10 y continua con la numeración de los sistemas operativos previos de Mac OS Classic, como Mac OS 8 y Mac OS 9. Pese a que oficialmente se lee como diez algunas personas lo leen como la letra X. Una de las razones para esta interpretación es que tradicionalmente los sistemas operativos basados en Unix se nombran con la X al final (ejemplos: AIX, IRIX, Linux, Minix, Ultrix, Xenix, HP-UX). Otra razón es la tendencia de Apple de referirse a sus versiones específicas como (por ejemplo) "Mac OS X versión 10.5".
Las diferentes versiones de Mac OS X van apodadas con los nombres de grandes felinos en inglés. Antes de su lanzamiento, la versión 10.0 tenía como nombre de proyecto interno en Apple
Cheetah (Guepardo), del mismo modo que la versión 10.1 fue apodada Puma. La versión 10.2 fue llamada Jaguar publicitariamente, y de esta versión en adelante se han seguido haciendo públicos estos nombres siendo Panther el de la versión 10.3, Tiger el de la 10.4, Leopard el de la 10.5 y Snow Leopard el de la 10.6, Apple tiene también registrados los nombres de Lynx (Lince) y Cougar (Puma) para su futuro uso.

Apple fue denunciada por una cadena de tiendas de ordenadores llamada TigerDirect por el uso del nombre "Tiger", pero el 19 de mayo de 2005 la Corte Federal de Florida determinó que Apple no infringía la marca registrada de TigerDirect.

La página web de Apple y los diferentes medios escritos se refieren a los lanzamientos específicos de Mac OS X en cualquiera de las cuatro siguientes formas:
Mac OS X v10.4, mostrando el número de versión.
Mac OS X Tiger, mostrando el nombre de la versión.
Mac OS X v10.4 "Tiger", mostrando tanto el número como el nombre de la versión (Apple suele omitir las comillas).
"Tiger", simplemente con el nombre de la versión y obviando todo lo demás.
A nivel interno, Apple utiliza un número de compilación (builds) para identificar cada versión desarrollada de Mac OS X. Según sus directivas, las primeras versiones en desarrollo de sus productos se designan como 1A1. Las revisiones menores de éstas son 1A2, 1A3, 1A4...; la primera revisión mayor en el desarrollo es la 1B1 (y sus revisiones menores serían 1B2, 1B3...), la siguiente 1C1, y así siguiendo el mismo patrón. Cuando se alcanza cierto punto de desarrollo la siguiente revisión mayor puede dar el salto de la serie 1_ a la 2A1, y así. Por poner un ejemplo, la primera build de Panther (10.3) fue la 7A1, y la primera versión que se hizo pública fue la 7B85; siendo la última la 7W98 (Mac OS X versión 10.3.9). Tras esto, la próxima build de OS X fue la 8A1, y la versión dio el salto a la 10.4 (cuando una build es elegida para ser lanzada públicamente se le asigna un número de versión).

Mac OS X v10.1 (Puma)
Antes de que terminase el año, el 25 de septiembre de 2001, Apple lanzó esta nueva versión que incrementaba el rendimiento del sistema a la vez que incorporaba algunas nuevas características tales como la reproducción de DVD. Dada la pésima reputación de la versión 10.0, Apple lanzó la 10.1 en forma de un CD de actualización gratuito para sus usuarios, además de los 129$ que costaba para los usuarios que seguían utilizando Mac OS 9. Esto ocasionó algunos quebraderos de cabeza a Apple cuando descubrió que los CD de actualización podían ser utilizados también para hacer instalaciones completas en sistemas con Mac OS 9 con tan sólo eliminar un determinado archivo.

Mac OS X v10.2 (Jaguar)

El 25 de agosto de 2002, Apple prosiguió con la andadura de su sistema operativo con el lanzamiento de Mac OS X v10.2 "Jaguar" (la primera versión que utilizó publicitariamente su felino seudónimo), y que contaba con un nuevo incremento en su rendimiento, un nuevo y depurado aspecto y más de 150 mejoras que incluyen:

Mayor soporte para redes de Microsoft Windows.

Quartz Extreme para que la composición de gráficos sea procesada directamente por la tarjeta de vídeo.
Un filtro adaptativo contra
spam.
Apple Address Book para almacenar la información de contactos.
Sistema de red
Rendezvous (una implementación de Apple de Zeroconf; renombrada a Bonjour por problemas legales en la versión 10.4).

iChat: Un programa de chateo con soporte de AOL Instant Messenger.
Un renovado
Finder con búsquedas integradas en cada ventana.
Docenas de nuevas características del
Apple Universal Access.
Sherlock 3: Servicios web.
CUPS (Common Unix Printing System): que permite el uso de drivers GIMP-print, hpijs y demás para impresoras no soportadas oficialmente.
En el
Reino Unido no se utilizó oficialmente el nombre de Jaguar para referirse a Mac OS X v10.2 para evitar entrar en conflicto con el fabricante de automóviles Jaguar, aunque la caja y los CD siguieron conservando el logo con piel de Jaguar.

Mac OS X v10.3 (Panther)

Mac OS X v10.3 "Panther" se lanzó el 24 de octubre de 2003. Además de tener un rendimiento mucho mayor, incorporó la mayor actualización en el interfaz de usuario, y tantas o más mejoras que Jaguar el año anterior. Por otra parte, en esta versión dejaron de soportarse algunos modelos antiguos G3.
Las nuevas mejoras de Panther incluyen:
Finder actualizado, que incorpora una interfaz metálica y búsqueda rápida.
Exposé: una nueva forma de manipular ventanas.
Cambio rápido de usuarios: que permite tener sesiones con diferentes usuarios abiertas al mismo tiempo y pasar de una a otra rápidamente.
iChat AV que añade soporte para
videoconferencia a iChat.
Renderización mejorada de
PDF.
Soporte integrado de
fax.
Interoperatibilidad con
Microsoft Windows mucho mayor.
FileVault: Sistema de cifrado en tiempo real del directorio privado de cada usuario.
Incremento de velocidad en todo el sistema con un mayor soporte para los
G5.

Mac OS X v10.4 (Tiger)

Mac OS X v10.4 "Tiger" se puso a la venta el 29 de abril de 2005. Contiene más de 200 nuevas mejoras, pero como sucedió con el lanzamiento de Panther, algunas máquinas antiguas han dejado de ser soportadas; en particular, cualquier equipo Apple que no cuente con conexión FireWire no está ya soportado en Tiger. Algunas de las nuevas características de Tiger son:
Spotlight: Un sistema de búsqueda basado en contenidos y metadatos.
Dashboard: Dashboard en un conjunto de miniaplicaciones, denominadas en el campo de la informática widgets, las cuales permiten realizar tareas comunes y ofrecen acceso instantáneo a la información.
iChat: Una nueva versión de este programa que soporta el códec de vídeo H.264 para la realización de vídeoconferencias de hasta 4 personas. Además, también permite realizar audioconferencias de hasta 10 personas.
QuickTime 7: La nueva versión incluye soporte para H.264 y una interfaz completamente rediseñada.
Safari: Esta nueva versión del navegador por defecto del sistema incorpora soporte para RSS, mayor velocidad y seguridad, etc.
Automator: Sistema que permite llevar a cabo de forma eficaz y sencilla toda clase de tareas manuales y repetitivas de forma automática y sin necesidad de conocimientos de programación.
Core Image y Core Video: Tecnologías avanzadas de procesamiento de imágenes en tiempo real.
Soporte de memoria de
64 bits para los nuevos G5, usando el sistema LP64.
Utilidades Unix actualizadas, como
cp y rsync, que pueden preservar los metadatos en HFS Plus y resource fork.
Sistema extendido de permisos usando listas de control de acceso.
Como curiosidad cabe comentar que Apple dispone a partir de Tiger, de una versión "paralela" compilada para procesadores Intel, si bien, teóricamente, sólo podrá instalarse bajo ciertas restricciones de hardware y en procesadores con soporte SSE3.
Esta versión apareció en forma oficial el día 10 de enero del 2006 con los primeros equipos "Mac Intel": El iMac Core Duo (ex iMac G5), Mac mini Core Solo y Core Duo (ex Mac mini G4) además de los nuevos portátiles denominados MacBook y MacBook Pro, ambos equipados con procesadores Intel Core Duo. También han existido versiones para G4 de este sistema operativo, incluida al menos en los últimos PowerBook G4 a la venta.

Mac OS X v10.5 (Leopard)

Estos son los diez puntos principales que destaca Apple:
Time Machine: La posibilidad de poder volver en el tiempo a una versión especifica de los contenidos de una carpeta, del disco duro completo, de un sólo archivo, de un álbum de fotos en iPhoto, etc.
Mail 3: La tercera versión de este programa de
correo electrónico de Apple ahora incluye Notas y To-Dos (listas de cosas por hacer), así como variadas plantillas para enviar email HTML.
iChat: Incluye iconos animados y conversaciones por pestañas. Además de funciones adicionales para los vídeochats, presentar vídeos y compartir el escritorio.
Spaces: Despliega múltiples
escritorios virtuales.
Dashboard: Trae una herramienta llamada Dashcode para crear Widgets fácilmente. Adicionalmente Safari tiene un botón "Webclip" que permitirá tomar cualquier fragmento de una página que se esté viendo y convertirla en un Widget.
Spotlight: Incluye búsquedas avanzadas, Quick Look (previsualizaciones en vivo), y la posibilidad de buscar en varios computadores Mac en red (si la opción "Compartir Archivos" está habilitada). Además, las ventanas de Finder y Spotlight se han unificado.
iCal: Incluye varias mejoras, especialmente en el ámbito de los calendarios grupales.
Accesibilidad: Más mejoras en las funciones de accesibilidad para que "todos puedan usar un Mac". La mayor de ellas siendo un gran avance en las funciones de texto-a-voz con una nueva voz sintetizada llamada Alex, que incluso puede hablar claramente a altas velocidades. Además, trae soporte para pantallas Braille.
64-bit: Tiger fue el primer sistema operativo de Apple en empezar a sacarle provecho al poder de los procesadores de 64-bit. Leopard da el próximo salto entregando más partes optimizadas del sistema operativo, así como la capacidad de que otras capas del sistema (y no solo la capa UNIX) puedan hacer uso de masivas cantidades de memoria.
Core Animation: Así como Core Video, Core Image y Core Audio simplificaban que cualquier desarrollador le sacara el máximo provecho a funciones de vídeo, 2D y audio, respectivamente, ahora Core Animation hace lo mismo con animaciones — lo que significa que junto con Leopard llegará una generación de aplicaciones llenas de efectos 3D. Ahora los efectos 3D en la interfaz no son de uso exclusivo del sistema operativo o de quienes sepan usar OpenGL. Según Apple, estos nuevos efectos incluidos correrán sobre cualquier Mac vendido en los últimos 2 años

Mac OS X v10.6 (Snow Leopard)

Mac OS X 10.6 Snow Leopard es el nuevo sistema operativo de Apple. Snow Leopard está a la venta, por 29 € para los usuarios de Leopard y por 169 € el Mac Box Set (Mac OS X Snow Leopard, iLife '09 y iWork '09) para los poseedores de un ordenador con Mac OS X Tiger, en el Apple Store (incluyendo gastos de envío) y en los distribuidores Apple autorizados. Ya han sido lanzados ordenadores Apple con Snow Leopard ya instalado. Las mejoras incluidas en esta versión son:
Nuevo exposé integrado en el Dock.
Innovación en caracteres chinos pudiendo usar el
touchpad para insertarlos.
Ajuste automático de la zona horaria.
Mejoras en la selección de texto en
PDF.
Soporte para conectarse a los servidores
Microsoft Exchange 2007 en las aplicaciones de Agenda (Address Book), Mail e iCal.[12]
Tiempos de instalación menores y menor uso de espacio de disco duro
[13]
Soporte para 16
TB teóricos de RAM a través de mayor desarrollo de tecnologías de núcleos de 64 bits.[14]
Grand Central: una tecnología de programación paralela que permite usar las ventajas de los procesadores multinúcleo y optimizar la ejecución de aplicaciones de Mac OS X.[15] que busca que el sistema operativo tome mayor ventaja de las CPUs de multinúcleo[12]
QuickTime X que tendrá soporte optimizado para codecs actuales
OpenCL (Open Computing Language): que permitirá a los desarrolladores programar aplicaciones que utilicen la unidad de procesamiento gráfico (GPU) para usos no gráficos.[12]
Un
núcleo de 64 bits que proveerá de un ambiente completo de 64 bits para las aplicaciones, junto con soporte de 32 bits para las Macs más antiguas. Esto permitirá hasta un máximo teórico de 16TB de memoria RAM.
Críticas
The Open Group había criticado a Apple por utilizar el término "Unix" en las publicidades de Mac OS X pese a que Apple no disponía de la certificación oficial del sistema operativo y su uso podía suponer una violación de marca registrada. Probablemente como respuesta a estas críticas, Mac OS X adquirió la certificación UNIX para la versión 10.5 (Leopard) cuando comenzó a funcionar sobre procesadores Intel.