Auditorias Especiales: Sistemas Operativos Diego Alejandro Gómez cod. 907023 José Alejandro Arias M. cod. 907037 Materia: Auditoria de Sistemas II Profesor: Carlos Hernan Gomez Universidad Nacional de Colombia Sede Manizales Mayo de 2010 Auditorías Específicas: Sistemas Operativos Los sistemas operativos se consideran la base sobre la cual se ejecutan y administran los sistemas de información en las empresas. Normalmente todo programa o aplicativo que se requiera utilizar necesita de base un sistema operativo que comunique sus comandos de alto nivel con el lenguaje de máquina. Los sistemas operativos tienen diversos puntos a auditar, pues su funcionamiento implica desde la comunicación con el hardware hasta el manejo de usuarios y de complejos sistemas que requieren cierto grado de seguridad y disponibilidad. SISTEMAS OPERATIVOS WINDOWS Historia: Microsoft ha seguido dos rutas paralelas en sus sistemas operativos. Ha sido una ruta para usuarios domésticos y el otro ha sido para el usuario profesional de IT. Las dos rutas generalmente han dado lugar a versiones caseras con mayor soporte multimedia y menos funcionalidad en redes y seguridad y versiones profesionales con soporte multimedia inferior y mejor de red y seguridad La primera versión de Microsoft Windows, versión 1.0, lanzado en noviembre de 1985, carecía de un grado de funcionalidad y logró muy poca popularidad y compitió con el sistema operativo de Apple. Windows 1.0 no es un sistema operativo completo; más bien es una extensión gráfica de MS-DOS. Microsoft Windows versión 2.0 fue lanzado en noviembre de 1987 y fue un poco más popular que su predecesor. Windows 2.03 (fecha de lanzamiento en enero de 1988) había cambiado el sistema operativo desde windows a superposición de overlapping windows. El resultado de este cambio llevó a presentar una demanda contra Microsoft basado en la infracción de derechos de autor de Apple Computer. Microsoft Windows versión 3.0, lanzado en 1990, fue la primera versión de Microsoft Windows que consiguió un amplio éxito comercial, vendiendo 2 millones de copias en los primeros seis meses. Presentaba mejoras en la interfaz de usuario y en la multitarea. Recibió un lavado de cara en Windows 3.1, que se hizo disponible para el público en general el 1 de marzo de 1992. El soporte de Windows 3.1 termino el 31 de diciembre de 2001. En julio de 1993, Microsoft lanzó Windows NT basado en un nuevo kernel. NT era considerado como el sistema operativo profesional y fue la primera versión de Windows para utilizar la multitarea preemptiva. Windows NT más tarde sería reestructurado también para funcionar como un sistema operativo para el hogar, con Windows XP. El 24 de agosto de 1995, Microsoft lanzó Windows 95, una versión nueva para los consumidores, y grandes fueron los cambios que se realizaron a la interfaz de usuario, y también se utiliza multitarea preemptiva. Windows 95 fue diseñado para sustituir no sólo a Windows 3.1, sino también de Windows for Workgroups y MS-DOS. También fue el primer sistema operativo Windows para utilizar las capacidades de Plug and Play. Los cambios de Windows 95 trajo en el escritorio eran revolucionarios, a diferencia de la evolución, como los de Windows 98 y Windows Me. El soporte estándar para Windows 95 finalizó el 31 de diciembre de 2000 y el soporte ampliado para Windows 95 finalizó el 31 de diciembre de 2001. El siguiente en la línea de consumidor fue lanzado el 25 de junio de 1998, Microsoft Windows 98. Sustancialmente fue criticado por su lentitud y por su falta de fiabilidad en comparación con Windows 95, pero muchos de sus problemas básicos fueron posteriormente rectificados con el lanzamiento de Windows 98 Second Edition en 1999. El soporte estándar para Windows 98 terminó el 30 de junio de 2002, y el soporte ampliado para Windows 98 terminó el 11 de julio de 2006. Como parte de su línea "profesional", Microsoft lanzó Windows 2000 en febrero de 2000. La versión de consumidor tras Windows 98 fue Windows Me (Windows Millennium Edition). Lanzado en septiembre de 2000, Windows Me implementaba una serie de nuevas tecnologías para Microsoft: publicitado en particular fue "Universal Plug and Play". Durante el 2004 parte del código fuente de Windows 2000 se filtró en internet, esto era malo para Microsoft porque el mismo núcleo utilizado en Windows 2000 se utilizó en Windows XP. En octubre de 2001, Microsoft lanzó Windows XP, una versión que se construyó en el kernel de Windows NT que también conserva la usabilidad orientada al consumidor de Windows 95 y sus sucesores. En dos ediciones distintas, "Home" y "Professional", el primero carece de mucho de la seguridad superior y características de red de la edición Professional. Además, el primer "Media Center" edición fue lanzada en 2002, con énfasis en el apoyo a la funcionalidad de DVD y TV, incluyendo la grabación del programa y un control remoto. El soporte estándar para Windows XP terminó el 14 de abril de 2009. El soporte extendido continuará hasta el 8 de abril de 2014. En abril de 2003, Windows Server 2003 se introdujo, reemplazando a la línea de productos de servidor de Windows 2000 con un número de nuevas características y un fuerte enfoque en la seguridad; lo cual fue seguido en diciembre de 2005 por Windows Server 2003 R2. El 30 de enero de 2007, Microsoft lanzó Windows Vista. Contiene una serie de características nuevas, desde un shell rediseñado y la interfaz de usuario a importantes cambios técnicos, con especial atención a las características de seguridad. Está disponible en varias ediciones diferentes y ha sido objeto de algunas críticas. Características de Windows 2008 Server: Hay algunas diferencias (unas sutiles y otras no tanto) con respecto a la arquitectura del nuevo Windows Server 2008, que pueden cambiar drásticamente la manera en que se usa este sistema operativo. Estos cambios afectan a la manera en que se gestiona el sistema hasta el punto de que se puede llegar a controlar el hardware de forma más efectiva, se puede controlar mucho mejor de forma remota y cambiar de forma radical la política de seguridad. Entre las mejoras que se incluyen, están: • Nuevo proceso de reparación de sistemas NTFS: proceso en segundo plano que repara los archivos dañados. • Creación de sesiones de usuario en paralelo: reduce tiempos de espera en los Terminal Services y en la creación de sesiones de usuario a gran escala. • Cierre limpio de Servicios. • Sistema de archivos SMB2: de 30 a 40 veces más rápido el acceso a los servidores multimedia. • Address Space Load Randomization (ASLR): protección contra malware en la carga de controladores en memoria. • Windows Hardware Error Architecture (WHEA): mejorado y estandarizado de reporte de errores. • Virtualización de Windows Server: mejoras en el rendimiento de la virtualización. • PowerShell: inclusión de una consola mejorada con soporte GUI para administración. • Server Core: el núcleo del sistema se ha renovado con muchas y nuevas mejoras. protocolo Seguridad y Cumplimiento en Windows 2008 Server Windows Server 2008 dispone de muchas características que mejoran la seguridad y el cumplimiento. Algunas mejoras clave incluyen: • Estado de cliente obligatorio: Protección de acceso a redes (NAP), que permite que los administradores configuren y apliquen requisitos de estado y seguridad antes de permitir el acceso de los clientes a la red • Supervisión de entidades de certificación: PKI de empresa, que mejora la capacidad de supervisar y solucionar problemas de múltiples entidades de certificación (CA) • Mejoras de firewall: el nuevo Firewall de Windows con seguridad avanzada ofrece varias mejoras de seguridad • Cifrado y protección de datos: BitLocker protege confidenciales mediante cifrado de la unidad de disco • Herramientas criptográficas: la última generación de criptología ofrece una plataforma de desarrollo flexible de criptografía • Aislamiento de servidor y dominio: los recursos de servidor y dominio se pueden aislar para limitar el acceso a equipos autenticados y autorizados • Controlador de dominio de sólo lectura (RODC): el RODC es la nueva opción de instalación de controlador de dominio que se datos puede instalar en sitios remotos con niveles más bajos de seguridad física Estas mejoras ayudan a los administradores a aumentar el nivel de seguridad de su organización y simplifican la administración e implementación de configuraciones y opciones relacionadas con la seguridad. Protección de acceso a redes La protección de acceso a redes (NAP) evita que equipos que no se encuentran en buen estado tengan acceso a la red de la organización y la pongan en peligro. NAP se usa para configurar y aplicar requisitos de estado de cliente, y para actualizar, o corregir, equipos cliente con incumplimiento antes que se puedan conectar a la red corporativa. Con NAP, los administradores pueden configurar directivas de estado que definen por ejemplo requisitos de software, requisitos de actualización de seguridad y opciones de configuración necesarias en equipos que se conectan a la red de la organización. NAP aplica requisitos de estado evaluando el estado de los equipos cliente y limitando el acceso a la red ante incumplimientos de los equipos cliente. Componentes del cliente y del servidor participan en la corrección de equipos cliente en situación de incumplimiento, para que puedan obtener un acceso ilimitado a la red. Si se determina que un equipo cliente presenta incumplimientos, se le puede prohibir el acceso a la red o aplicarle de inmediato las revisiones para devolverlo al estado de cumplimiento. Los métodos de cumplimiento de NAP admiten cuatro tecnologías de acceso a redes que funcionan junto con NAP para aplicar directivas de estado: El cumplimiento de seguridad de protocolo de Internet (IPSEC), el cumplimiento de 802.1X, el cumplimiento de red privada virtual (VPN) para enrutamiento y acceso remoto y el cumplimiento de protocolo de configuración dinámica de host (DHCP). Funcionalidad de seguridad avanzada de Firewall de Windows El Firewall de Windows con seguridad avanzada en Windows Server 2008 es un firewall con estado basado en host que permite o bloquea el tráfico de red según su configuración y las aplicaciones que se encuentran en ejecución, para proteger la red de usuarios y programas malintencionados. Una nueva característica es la capacidad de permitir que el firewall intercepte tanto el tráfico entrante como el saliente. Un administrador de red puede, por ejemplo, configurar el nuevo Firewall de Windows con un conjunto de excepciones para bloquear todo el tráfico que se envía a puertos específicos, como puertos conocidos usados por software de virus o especificar direcciones que contengan contenido confidencial o no deseable. Esto protege al equipo de virus que podrían propagarse a través de la red y protegen a la red de virus que pueden intentar propagarse desde un sistema en riesgo. Como el número de opciones de configuración del Firewall de Windows ha aumentado, se ha agregado un nuevo complemento de MMC denominado Firewall de Windows con seguridad avanzada para simplificar la administración. Con el nuevo complemento, los administradores de red pueden configurar de forma remota la configuración del Firewall de Windows en estaciones de trabajo clientes y en servidores (algo que no es posible en versiones anteriores sin una conexión a escritorio remoto), simplificando así la configuración y administración remotas. En versiones anteriores de Windows Server, Firewall de Windows e IPsec se configuraban de forma independiente. Debido a que tanto un firewall basado en host como IPsec pueden bloquear o permitir en Windows el tráfico entrante, es posible crear excepciones de firewall y reglas de IPsec contradictorias o superpuestas. El nuevo Firewall de Windows en Windows Server 2008 han combinado la configuración de ambos servicios de red mediante la misma GUI e iguales comandos de línea de comandos. Esta integración de la configuración de firewall e IPsec simplifica la configuración de firewall e IPsec y ayuda a evitar la superposición de directivas y las configuraciones contradictorias. Cifrado de unidad BitLocker El cifrado de unidad BitLocker es una nueva característica clave de seguridad en Windows Server 2008, que ayuda a proteger servidores, estaciones de trabajo y equipos móviles. También se encuentra disponible en las ediciones de Windows Vista Enterprise y Windows Vista Ultimate para proteger equipos cliente y equipos móviles. BitLocker cifra el contenido de una unidad de disco. Esto evita que un ladrón que ejecuta un sistema operativo paralelo u otras herramientas de software, se salte las protecciones de archivo y sistema, o que pueda realizar una visualización sin conexión de archivos almacenados en la unidad de disco protegida. BitLocker mejora la protección de datos al reunir dos subfunciones principales: cifrado del volumen de sistema y comprobación de integridad en componentes de preinicio. Se cifra el volumen de sistema completo, incluidos los archivos de paginación e hibernación, lo que aumenta la seguridad de servidores remotos ubicados en sucursales. BitLocker resuelve las amenazas de robo o exposición de datos de un equipo perdido, robado o retirado de manera inapropiada de servicio activo. BitLocker también ayuda a las organizaciones a cumplir con disposiciones de organismos oficiales, como Sarbanes-Oxley y HIPAA, que requieren el mantenimiento de estándares muy altos de seguridad y protección de datos. PKI de empresa (PKIView) Hay varias mejoras en la infraestructura de claves públicas (PKI) en Windows Server 2008 y sistemas operativos Windows Vista. Se ha aumentado la capacidad de administración en todos los aspectos de Windows PKI, se han rediseñado las revocaciones de servicios y hay una disminución de la superficie de ataque para la inscripción. Las mejoras en PKI incluyen: • PKI de empresa (PKIView): originalmente parte del Kit de recursos de Microsoft Windows Server 2003 y llamada herramienta PKI Health, PKIView es ahora un complemento Microsoft Management Console (MMC) de Windows Server 2008. Se usa para analizar el estado de las CA, y para consultar detalles de certificados de la entidad emisora publicados en AD CS. • Protocolo de estado de certificados en línea (OCSP): un contestador conectado basado en el Protocolo de estado de certificados en línea (OCSP) se puede usar para administrar y distribuir información de estado de revocación en casos donde el uso de CRL convencionales no es una solución óptima. Los contestadores conectados se pueden configurar en un solo equipo o en una Matriz contestadores conectados. • Servicio de inscripción de dispositivos de red (NDES): en Windows Server 2008, el Servicio de inscripción de dispositivos de red (NDES) es la implementación de Microsoft del Protocolo de inscripción de certificados simple (SCEP), un protocolo de comunicaciones que permite que software en ejecución en dispositivos de red, como enrutadores y conmutadores que de otro modo no se pueden autenticar en la red, se inscriban en certificados x509 de una entidad de certificación (CA). • Inscripción web: el nuevo control de inscripción web es más seguro, más fácil de escribir en secuencia de comandos y de actualizar que la versión anterior. • Directiva de grupo y PKI: la configuración de certificados en directivas de grupo permite a los administradores administrar configuración de certificados desde una ubicación central para todos los equipos del dominio. Criptografía de nueva generación (CNG) La Criptografía de nueva generación (CNG) ofrece una plataforma de desarrollo criptográfica flexible que permite a los profesionales de TI crear, actualizar y usar algoritmos personalizados de criptografía en aplicaciones relacionadas con criptografía, como Servicios de Certificate Server de Active Directory (AD CS), Capa de sockets seguros (SSL) y Seguridad de Protocolo Internet (IPSEC). CNG implementa los algoritmos cifrados de la Suite B del gobierno de los EE.UU., que incluyen algoritmos para cifrado, firmas digitales, intercambio de claves y hashing. CNG ofrece un conjunto de API que se usan para realizar las operaciones básicas de criptografía, como creación, almacenamiento y recuperación de claves criptográficas. También admite la instalación y uso de proveedores de criptografía adicionales. CNG permite que las organizaciones y los desarrolladores usen sus propios algoritmos criptográficos o implementaciones de algoritmos criptográficos estándar. CNG admite el conjunto actual de algoritmos CryptoAPI 1.0 y ofrece también compatibilidad con algoritmos de criptografía de curva elíptica (ECC). Varios algoritmos de ECC son obligatorios en la directiva Suite B del gobierno de los Estados Unidos. Controladores de dominio de sólo lectura Un controlador de dominio de sólo lectura (RODC) es un nuevo tipo de controlador de dominio disponible en el sistema operativo Windows Server 2008, diseñado para implementarse principalmente en entornos de sucursales. Un RODC puede reducir los riesgos de implementar un controlador de dominio en ubicaciones remotas, como sucursales, donde no se puede garantizar la seguridad física. Excepto por las contraseñas de cuentas, un RODC dispone de todos los objetos y atributos de servicios de dominio de Active Directory de Microsoft (AD DS) de que dispone un controlador de dominio de escritura. No obstante los clientes, no pueden escribir cambios directamente en un RODC. Como los cambios no se escriben directamente al RODC y por lo tanto no se originan de forma local, los controladores de dominio de escritura que son asociados de replicación no tienen que extraer cambios del RODC. La separación de funciones del administrador especifica que a cualquier usuario del dominio se puede delegar la administración local de un RODC sin concederle ningún derecho de usuario del dominio propiamente dicho ni de otros controladores de dominio. Aislamiento de servidor y dominio En una red basada en Microsoft Windows, los administradores pueden aislar lógicamente los recursos de servidor y dominio para limitar el acceso a equipos autenticados y autorizados. Por ejemplo, se puede crear una red lógica dentro de la red física existente, donde los equipos compartan un conjunto común de requisitos para comunicaciones seguras. Cada equipo en esta red lógicamente aislada debe ofrecer credenciales de autenticación a otros equipos en la red aislada para establecer conectividad. Este aislamiento evita que equipos y programas no autorizados obtengan acceso a recursos de manera inapropiada. Las solicitudes de equipos que no son parte de la red aislada se ignoran. El aislamiento de servidor y dominio puede ayudar a proteger servidores y datos específicos de gran valor así como proteger a equipos administrados de equipos y usuarios no administrados o invasores. Se puede usar dos clases de aislamiento para proteger una red: • Aislamiento de servidor: en un escenario de aislamiento de servidor, se configuran servidores específicos mediante directivas de IPsec para aceptar sólo comunicaciones autenticadas de otros equipos. Por ejemplo, el servidor de la base de datos se puede configurar para que sólo acepte conexiones del servidor de aplicaciones web. • Aislamiento de dominio: para aislar un dominio, los administradores pueden usar la pertenencia al dominio de Active Directory para garantizar que los equipos que sean miembros de un dominio sólo acepten comunicaciones autenticadas y protegidas de otros equipos que son miembros del dominio. La red aislada sólo se compone de equipos que forman parte del dominio. El aislamiento de dominio usa directivas de IPsec para proporcionar protección para el tráfico que se envía entre miembros del dominio, incluidos todos los equipos cliente y servidor. SISTEMAS OPERATIVOS UNIX A finales de 1960, el Instituto Tecnológico de Massachusetts, los Laboratorios Bell de AT&T y General Electric trabajaban en un sistema operativo experimental llamado Multics (Multiplexed Information and Computing Service), desarrollado para ejecutarse en una computadora central (mainframe) modelo GE-645. El objetivo del proyecto era desarrollar un gran sistema operativo interactivo que contase con muchas innovaciones, entre ellas mejoras en las políticas de seguridad. El proyecto consiguió dar a luz versiones para producción, pero las primeras versiones contaban con un pobre rendimiento. Los laboratorios Bell de AT&T decidieron desvincularse y dedicar sus recursos a otros proyectos. Uno de los programadores del equipo de los laboratorios Bell, Ken Thompson, siguió trabajando para la computadora GE-635 y escribió un juego llamado Space Travel, (Viaje espacial). Sin embargo, descubrió que el juego era lento en la máquina de General Electric y resultaba realmente caro, algo así como 75 dólares de EE.UU. por cada partida. De este modo, Thompson escribió nuevamente el programa, con ayuda de Dennis Ritchie, en lenguaje ensamblador, para que se ejecutase en una computadora DEC PDP-7. Esta experiencia, junto al trabajo que desarrolló para el proyecto Multics, condujo a Thompson a iniciar la creación de un nuevo sistema operativo para la DEC PDP-7. Thompson y Ritchie lideraron un grupo de programadores, entre ellos a Rudd Canaday, en los laboratorios Bell, para desarrollar tanto el sistema de ficheros como el sistema operativo multitarea en sí. A lo anterior, agregaron un intérprete de órdenes (o intérprete de comandos) y un pequeño conjunto de programas. El proyecto fue bautizado UNICS, como acrónimo Uniplexed Information and Computing System, pues sólo prestaba servicios a dos usuarios (de acuerdo con Andrew Tanenbaum, era sólo a un usuario). La autoría de esta sigla se le atribuye a Brian Kernighan, ya que era un hack de Multics. Dada la popularidad que tuvo un juego de palabras que consideraba a UNICS un sistema MULTICS castrado (pues eunuchs, en inglés, es un homófono de UNICS), se cambió el nombre a UNIX, dando origen al legado que llega hasta nuestros días.[10] Hasta ese instante, no había existido apoyo económico por parte de los laboratorios Bell, pero eso cambió cuando el Grupo de Investigación en Ciencias de la Computación decidió utilizar UNIX en una máquina superior a la PDP-7. Thompson y Ritchie lograron cumplir con la solicitud de agregar herramientas que permitieran el procesamiento de textos a UNIX en una máquina PDP-11/20, y como consecuencia de ello consiguieron el apoyo económico de los laboratorios Bell. Fue así como por vez primera, en 1970, se habla oficialmente del sistema operativo UNIX[11] ejecutado en una PDP-11/20. Se incluía en él un programa para dar formato a textos (runoff) y un editor de texto. Tanto el sistema operativo como los programas fueron escritos en el lenguaje ensamblador de la PDP-11/20. Este "sistema de procesamiento de texto" inicial, compuesto tanto por el sistema operativo como de runoff y el editor de texto, fue utilizado en los laboratorios Bell para procesar las solicitudes de patentes que ellos recibían. Pronto, runoff evolucionó hasta convertirse en troff, el primer programa de edición electrónica que permitía realizar composición tipográfica. El 3 de noviembre de 1971 Thomson y Ritchie publicaron un manual de programación de UNIX (título original en inglés: "UNIX Programmer's Manual"). En 1972 se tomó la decisión de escribir nuevamente UNIX, pero esta vez en el lenguaje de programación C.[13] Este cambio significaba que UNIX podría ser fácilmente modificado para funcionar en otras computadoras (de esta manera, se volvía portable) y así otras variaciones podían ser desarrolladas por otros programadores. Ahora, el código era más conciso y compacto, lo que se tradujo en un aumento en la velocidad de desarrollo de UNIX. AT&T puso a UNIX a disposición de universidades y compañías, también al gobierno de los Estados Unidos, a través de licencias. Una de estas licencias fue otorgada al Departamento de Computación de la Universidad de California, con sede en Berkeley.[14] En 1975 esta institución desarrolló y publicó su propio sucedáneo de UNIX, conocida como Berkeley Software Distribution (BSD), que se convirtió en una fuerte competencia para la familia UNIX de AT&T. Mientras tanto, AT&T creó una división comercial denominada Unix Systems Laboratories para la explotación comercial del sistema operativo. El desarrollo prosiguió, con la entrega de las versiones 4, 5 y 6[15] en el transcurso de 1975. Estas versiones incluían los pipes o tuberías, lo que permitió dar al desarrollo una orientación modular respecto a la base del código, consiguiendo aumentar aún más la velocidad de desarrollo. Ya en 1978, cerca de 600 o más máquinas estaban ejecutándose con alguna de las distintas encarnaciones de UNIX. La versión 7, la última versión del UNIX original con amplia distribución, entró en circulación en 1979. Las versiones 8, 9 y 10 se desarrollaron durante la década de 1980, pero su circulación se limitó a unas cuantas universidades, a pesar de que se publicaron los informes que describían el nuevo trabajo. Los resultados de esta investigación sirvieron de base para la creación de Plan 9 from Bell Labs, un nuevo sistema operativo portable y distribuido, diseñado para ser el sucesor de UNIX en investigación por los Laboratorios Bell. AT&T entonces inició el desarrollo de UNIX System III, basado en la versión 7, como una variante de tinte comercial y así vendía el producto de manera directa. La primera versión se lanzó en 1981. A pesar de lo anterior, la empresa subsidiaria Western Electric seguía vendiendo versiones antiguas de Unix basadas en las distintas versiones hasta la séptima. Para finalizar con la confusión con todas las versiones divergentes, AT&T decidió combinar varias versiones desarrolladas en distintas universidades y empresas, dando origen en 1983 al Unix System V Release 1. Esta versión presentó características tales como el editor Vi y la biblioteca curses, desarrolladas por Berkeley Software Distribution en la Universidad de California, Berkeley. También contaba con compatibilidad con las máquinas VAX de la compañía DEC. En 1993, la compañía Novell adquirió la división Unix Systems Laboratories de AT&T junto con su propiedad intelectual.[16] Esto ocurrió en un momento delicado en el que Unix Systems Laboratories disputaba una demanda en los tribunales contra BSD por infracción de los derechos de copyright, revelación de secretos y violación de marca de mercado. BSD no solamente ganó el juicio sino que cambiaron tornas descubriendo que grandes porciones del código de BSD habían sido copiadas ilegalmente en UNIX System V. En realidad, la propiedad intelectual de Novell (recién adquirida de Unix Systems Laboratories) se reducía a unos pocos ficheros fuente. La correspondiente contrademanda acabó en un acuerdo extrajudicial cuyos términos permanecen bajo secreto a petición de Novell. Aproximadamente por esa misma fecha, un estudiante de ciencias de la computación llamado Linus Torvalds desarrolló un núcleo para computadoras con arquitectura de procesador Intel x86 que mimetizaba muchas de las funcionalidades de UNIX y lo lanzó en forma de código abierto en 1991, bajo el nombre de Linux. En 1992, el Proyecto GNU comenzó a utilizar el núcleo Linux junto a sus programas. En 1995, Novell vendió su división UNIX comercial[16] (es decir, la antigua Unix Systems Laboratories) a Santa Cruz Operation (SCO) reservándose, aparentemente, algunos derechos de propiedad intelectual sobre el software.[17] SCO continúa la comercialización de System V en su producto UnixWare, que durante cierto tiempo pasó a denominarse OpenUnix, aunque ha retomado de nuevo el nombre de UnixWare. Carácterísticas Generales de Unix Multitareas Esta palabra describe la habilidad de ejecutar, aparentemente al mismo tiempo, numerosos programas sin obstaculizar la ejecución de cada Esto se conoce como multitareas preferentes, porque cada programa tiene garantizada la posibilidad de correr, esto es, cada programa no se ejecuta hasta que el sistema operativo lo aparta para permitir que otros programas corran. Otros sistemas operativos no soportan multitareas preferente, solo la llamada multitareas cooperativa, bajo la cual los programas corren hasta que ellos mismos permiten la ejecución de otro programa o no tienen otra cosa que hacer durante este periodo. Es fácil apreciar los beneficios de tener capacidades multitareas preferentes. Además de reducir los tiempos muertos, la flexibilidad de no tener que cerrar las ventanas de aplicaciones antes de abrir y trabajar en otras es mucho mas conveniente. Linux y otros sistemas de multitareas preferentes realizan el procesamiento preferente mediante el monitoreo, tanto de los procesos que están en espera de ejecución como de los que se están ejecutando. Entonces, el sistema programa cada proceso para que tenga la misma oportunidad de acceso al microprocesador. El resultado es que las aplicaciones abiertas parecen correr al mismo tiempo. La capacidad de asignar tiempo a las aplicaciones que están en ejecución, nos permite mayor velocidad de procesamiento. Multiusuario El concepto de que numerosos usuarios pudieran accesar aplicaciones o el potencial de procesamiento de una sola PC era un mero sueño desde hace unos años. La capacidad para asignar tiempo del microprocesador a numerosas aplicaciones simultáneas se prestó como consecuencia a servir a numerosas personas al mismo tiempo, cada una ejecutando una o más aplicaciones. Una particularidad de esta característica, es que más de una persona puede trabajar en la misma versión de la misma aplicación de manera simultánea, desde las mismas terminales o desde terminales separadas. Esto no debe confundirse con numerosos usuarios que actualizan un archivo a un tiempo, particularidad que es potencialmente desconcertante y peligrosa a la vez que indeseable. Existen aún mas características que merecen mencionarse sobre el sistema operativo con el que realizamos esta tesis, pero que para del desarrollo de la misma no es necesario describir tan detalladamente. [Jack Tackett, 1996] Estas características son las siguientes: • Shells programables • Independencia de dispositivos bajo Unix • Independencia de dispositivos bajo Linux • Comunicaciones y capacidades de la red • Portabilidad de sistemas abiertos Seguridad en Unix En la década de los ochenta para mucha gente el concepto de seguridad era algo inimaginable en el entorno Unix: la facilidad con que un experto podía acceder a un sistema, burlar todos sus mecanismos de protección y conseguir el máximo nivel de privilegio era algo de sobra conocido por todos, por lo que nadie podía pensar en un sistema Unix seguro. Afortunadamente, los tiempos han cambiado mucho desde entonces. Aunque en un principio y según uno de sus creadores, Unix no se diseñó para ser seguro, a finales de los 80 se convirtió en el primer sistema operativo en alcanzar niveles de seguridad quasi militares. En la actualidad se puede considerar el sistema operativo de propósito general más fiable del mercado; desde los clones habituales (Solaris, HP-UX, IRIX...) hasta los `Trusted Unix' (de los que hablaremos a continuación), pasando por los sistemas gratuitos (Linux, FreeBSD...), cualquier entorno Unix puede ofrecer los mecanismos de seguridad suficientes para satisfacer las necesidades de la mayoría de instituciones. Los Unices habituales, como Solaris o Linux, son bastante inseguros tal y como se instalan por defecto (out-of-the-box), como veremos a la hora de hablar de la seguridad lógica; esto significa que requieren de una mínima puesta a punto, en cuanto a seguridad se refiere, antes de ponerlos a trabajar con unas mínimas garantías de fiabilidad. Una vez realizada esta puesta a punto suelen tener una seguridad aceptable en redes de propósito general. El problema es que en muchas ocasiones se pone a trabajar a Unix tal y como se instala por defecto, lo que convierte a cualquier sistema operativo, Unix o no, en un auténtico agujero en cuanto a seguridad se refiere: cuentas sin password o con passwords por defecto, servicios abiertos, sistemas de ficheros susceptibles de ser compartidos... Dentro de la familia Unix existen una serie de sistemas denominados `Unix seguros' o `Unix fiables' (Trusted Unix); se trata de sistemas con excelentes sistemas de control, evaluados por la National Security Agency (NSA) estadounidense y clasificados en niveles seguros (B o A) según. Entre estos Unix seguros podemos encontrar AT&T System V/MLS y OSF/1 (B1), Trusted Xenix (B2) y XTS-300 STOP 4.1 (B3), considerados los sistemas operativos más seguros del mundo (siempre según la NSA). La gran mayoría de Unices (Solaris, AIX...) están clasificados como C2, y algunos otros, como Linux, se consideran sistemas C2 de facto: al no tener una empresa que pague el proceso de evaluación de la NSA no están catalogados, aunque puedan implementar todos los mecanismos de los sistemas C2. A la vista de lo comentado en este punto, parece claro que Unix ha dejado de ser ese sistema arcaico e inseguro de sus primeros tiempos para convertirse en el entorno de trabajo más fiable dentro de la gama de sistemas operativos de propósito general; sin embargo, por alguna extraña razón, mucha gente tiende a considerar todavía a los equipos Unix como amenazas en la red, especialmente a los clones gratuitos como Linux o FreeBSD que habitualmente se ejecutan en PCs; el hecho de que sean gratuitos no implica en ningún momento que sean inestables, y mucho menos, inseguros: empresas tan importantes como Yahoo! (www.yahoo.com) o Citroën (www.citroen.com), o el propio servicio postal de Estados Unidos utilizan estos entornos como servidores web o como firewall en sus redes. No obstante, las políticas de marketing de ciertas empresas desarrolladoras tienden a popularizar (y lamentablemente lo consiguen) ideas erróneas sobre la seguridad en Unix, lo que motiva que algunas organizaciones intenten buscar sistemas alternativos, casi siempre sustituyendo máquinas Unix por entornos Windows NT o Windows 9x. No creo que haga falta hacer comentarios sobre la seguridad de estos sistemas, por lo que no entraremos en detalles sobre ella; si alguien está interesado, o duda de la capacidad de Unix frente a estos entornos, puede consultar alguna de las comparativas o de los artículos publicados sobre el tema por universidades o por prestigiosos nombres dentro del mundo de la seguridad informática, o simplemente interesarse por el tipo de sistemas utilizados en centros de investigación como AT&T y la NASA, o en organismos de seguridad como el FBI y la NSA: Unix, por supuesto. SISTEMAS OPERATIVOS SOLARIS Historia: El primer sistema operativo de Sun nació en 1983 y se llamó inicialmente SunOS. Estaba basado en el sistema UNIX BSD, de la Universidad de Berkeley, del cual uno de los fundadores de la compañía fue programador en sus tiempos universitarios. Más adelante incorporó funcionalidades del System V, convirtiéndose prácticamente en un sistema operativo totalmente basado en System V. Esta versión basada en System V fue publicada en 1992 y fue la primera en llamarse Solaris, más concretamente Solaris 2. Las anteriores fueron llamadas Solaris 1 con efecto retroactivo. SunOS solo tendría sentido a partir de ese momento como núcleo de este nuevo entorno operativo Solaris. De esta forma Solaris 2 contenía SunOS 5.0. Desde ese momento se distingue entre el núcleo del sistema operativo (SunOS), y el entorno operativo en general (Solaris), añadiéndole otros paquetes como Apache o DTrace. Como ejemplo de esta función, Solaris 8 contiene SunOS 5.8. Características Solaris 10: A comienzos del 2005, Sun Microsystems ha sacado a la luz la version 10 (5.10) de su sistema operativo Solaris con nuevas características. Predictive Self-Healing Sun ha insertado en el núcleo del sistema operativo solaris un sistema denominado "Tecnología preventiva de auto recuperación" (PSH, Predictive Self-Healing). Con esta tecnología se reducen los riesgos y aumenta la disponibilidad del equipo, además PSH permite tomar medidas (diagnosticar, aislar, y recuperar las fallas existentes en los dispositivos de E/S o zonas en la memoria) para reducir daños por futuros peligros que puedan causar el caos en los sistemas y como resultado reducir los tiempos de caída, lo cual significa ahorrar tiempo y dinero. Como bien se sabe, el sistema operativo es un software básico que controla una computadora; el sistema operativo tiene 3 principales funciones: coordina y manipula el hardware del ordenador o computadora; (como la impresora, la memoria, etc.), y gestiona los errores del hardware y la pérdida de datos;(el teclado, el mouse). Es por ello que Sun ha creado el PSH, cuya finalidad general es evitar los errores del sistema y/o minimizar el daño que estos puedan ocasionar. Ventajas de las características del PSH del sistema operativo • Disponibilidad de servicio y sistema mejorado a través de un diagnostico y aislamiento de los componentes defectuosos. • Diagnostico automático y reinicio de componentes de hardware y software en milésimas de segundo. • Administración simplificada para administrar servicios. DTrace Denominado también rastreo dinámico, que busca el fondo y llega a la raíz de los problemas de rendimiento en tiempo real. Dicha herramienta trabaja utilizando sondas inteligentes del sistema que pueden acceder a áreas de más lento rendimiento o con cuellos de botella, estas sondas están dispersadas por todo el sistema, que ilumina cada rincón oscuro del sistema Solaris. Y además permite visualizar mejor la actividad del núcleo y de la aplicación. Y a la vez ofreciendo una visión operativa y una ganancia operativa no superada aun por otro sistema operativo. Solaris Containers Permite la creación de muchos ambientes privados de ejecución y una sola instancia de solaris. Cada ambiente tiene su propia identidad, independiente del hardware subyacente aunque se comporta como si se estuviera ejecutando en su propio sistema, permitiendo así que la consolidación sea un proceso sencillo, confiable y seguro. Y dado que los recursos del sistema están virtualizados, los administradores pueden incrementar la utilización del hardware, al tiempo que satisfacen los altos picos de demanda. ZFS, Zettabyte File System Artículo principal: ZFS (sistema de archivos) Es un nuevo sistema de archivos dinámico del sistema operativo Solaris. Ofrece una administración sencilla que automatiza y consolida complicados conceptos de almacenamiento y por otro lado protege todos los datos con sumas de 64 bits que detectan y corrigen el daño de datos silenciosos. Es el primer sistema de archivos de 128 bits, ofrece una capacidad de 16.000 millones de veces superior a la de los sistemas de 32 o 64 bits, virtualmente es el único sistema de archivos con capacidad de almacenamiento prácticamente ilimitada. Process rigths management Solaris 10 ofrece una solución para el modelo de usuario "todo o nada" mediante la integración de minimos privilegios de seguridad directamente dentro de la base del sistema operativo. Gracias a esta nueva función, Solaris se mantiene como el único sistema operativo UNIX que ofrece este modelo de seguridad completamente integrado dentro de sus componentes del núcleo del sistema operativo, cada aplicación Solaris tiene una lista cerrada de los privilegios especificos impuestos por el núcleo, en lugar de un solo privilegio de raíz todopoderoso. Adicionalmente cada servicio Solaris ha sido convertido para que utilice sólo los privilegios mínimos necesarios, lo cual hace aún más difícil violar el sistema y utilizar los servicios. Los administradores pueden asignar grupos de privilegios por funciones para diferentes tipos de administradores y desarrolladores. Libre de virus por más de 20 años, Solaris incluye la tecnología del Trusted Solaris ampliamente utilizada por el gobierno de los Estados Unidos para garantizar la seguridad de sus sistemas. Sun Update Connection Utilizando Solaris 10 los usuarios disponen de un servicio de actualizaciones que les permitirá estar al día con las innovaciones y el entorno del nuevo ambiente operativo. Compatibilidad garantizada Se asegura las aplicaciones escritas en versiones previas de Solaris pueden correr en Solaris 10 extendiendo la cobertura de compatibilidad hasta la versión de Solaris 2.6 la cual es una garantía sin precedentes en más de 7 años de lanzamiento de sistemas operativos en la industria. Además es capaz de correr la mayoría de las aplicaciones para GNU/Linux de forma nativa. SISTEMAS OPERATIVOS MAC OS Historia: Mac OS X está basado en el núcleo Mach. Ciertas partes de las implementaciones de UNIX por parte de FreeBSD y NetBSD fueron incorporadas en NEXTSTEP, en el que se basó Mac OS X. Nextstep fue el sistema operativo orientado a objetos desarrollado por Steve Jobs en NeXT después de dejar Apple en 1985. Mientras Jobs estaba afuera de Apple, la compañía intentó crear un sistema de "próxima generación" a través de los proyectos Taligent, Copland y Gershwin, con poco éxito. Eventualmente, el sistema de NeXT (en ese entonces denominado OPENSTEP) fue seleccionado para ser la base del próximo sistema operativo de Apple, por lo cual la compañía de Cupertino adquirió NeXT en su totalidad. Steve Jobs regreso a Apple como CEO interino, y luego asumió el cargo de lleno, acompañando la transformación de OPENSTEP en un sistema que sería adoptado para el mercado primario de Apple, los usuarios de hogar y los profesionales multimedia. El proyecto fue conocido inicialmente como Rhapsody y luego adoptó el nombre de Mac OS X. Mac OS X Server 1.x era incompatible con el software diseñado para el Mac OS original y no disponía de soporte para el puerto IEEE 1394 (FireWire). Mac OS X 10.x trajo consigo mayor compatibilidad y funcionalidad al incluir la Carbon API al igual que soporte para FireWire. Con la evolución del sistema, abandonó el legado de Mac OS hacia un énfasis de estilo de vida digital en las aplicaciones, tal como ocurrió con iLife, iWork y el media center Front Row. Cada versión incluía modificaciones a la interfaz general, como la apariencia metálica agregada en la versión 10.3, la barra de títulos sin rayas en la versión 10.4 y la remoción en la versión 10.5 de la apariencia metálica en favor de un estilo de ventana unificado en gradiente. Seguridad Tanto en la línea de comandos como en la interfaz gráfica los procesos requieren elevación para realizar modificaciones. El acceso restringido a los archivos del sistema es responsable de gran parte de la seguridad. Sin embargo, el sistema permite modificaciones cuando es requerido. El ejemplo más obvio es el software instalador, el cual requiere de una autorización administrativa para instalar software que afecta a más de un usuario. La arquitectura de seguridad integrada en el Mac OS X, al igual que en otros sistemas Unix, es una de las principales razones por las que los Mac están libres de malware. Aplicaciones Mac OS X v10.5 introdujo soporte seguro para aplicaciones y procesos firmados. Las aplicaciones y procesos firmados incluyen una firma digital, la cual es usada por el sistema para verificar la autenticidad y la integridad del software y sus recursos. El código es verificado tanto en el disco como cuando se está ejecutando. De este modo, si alguna parte del código de la aplicación o el proceso es inapropiadamente cambiado cuando está activo, el sistema automáticamente lo desactiva. La autenticación de código es usado por los llaveros, la aplicación de firewall personal, las preferencias de Control Parental y la configuración del gestor de clientes para verificar las aplicaciones después de modificaciones. Leopard también introdujo el servicio de aplicaciones en cuarentena, el cual muestra una advertencia cuando el usuario intenta abrir una aplicación descargada de una fuente externa. Esto da al usuario la oportunidad de verificar que desea abrir una nueva aplicación, o cancelar la apertura si se sospecha sobre la seguridad de la misma. Mac OS X v10.6 refuerza aún más esta característica con el mantenimiento de una lista de programas maliciosos conocidos. Si intenta abrir cualquier software en esta lista, el sistema presentará un cuadro de diálogo de advertencia que sugiere que tal archivo debe ser suprimido. Estructura de permisos Mac OS X distingue entre los usuarios (user), el administrador de sistema root (admin) y el superusuario (superuser). El usuario no puede realizar cambios en el sistema y solo puede instalar software en su carpeta personal. Las aplicaciones que ejecuten estos usuarios lo harán con los permisos propios de este tipo de usuario. Los usuarios administradores tienen más permisos, aunque no pueden realizar modificaciones a la configuración general del sistema, instalar software o tener acceso a varios directorios del sistema sin autenticarse. Mac OS X v10.5 - Cuentas de usuario • Administrador: un administrador puede crear y eliminar cuentas, instalar software, modificar los ajustes del sistema y cambiar la configuración de otros usuarios. • Estándar: una cuenta de usuario típica. Un usuario estándar sólo puede instalar software para la cuenta de usuario y no puede modificar las preferencias de sistema bloqueadas ni crear cuentas. • Supervisada con controles parentales: una cuenta que tiene privilegios limitados, gestionados mediante Controles parentales. • Sólo compartidos: sólo puede acceder a los archivos de una ubicación específica. No puede modificar los archivos del ordenador ni iniciar sesión en la ventana de inicio de sesión. • Grupo: una cuenta compuesta por los usuarios seleccionados. No existe una cuenta root que tenga permanentemente los permisos del superusario, después de realizar la instalación del sistema. Aunque hay un usuario "root" que está deshabilitado por defecto. Sin embargo, se han encontrado lagunas que permiten a un usuario administrador ejecutar software de administración y tener control total sobre el sistema. Cortafuegos Hasta el OS X 10.4, se utilizó el Cortafuegos orientado a paquetes ipfw para filtrar el tráfico entrante. Desde el OS X 10.5 un cortafuegos para aplicaciones establece que programas pueden recibir tráfico entrante. Se puede instalar una interfaz para ipfw mediante programas adicionales como WaterProof o Flying Buttress. Pruebas iniciales demostraron que el cortafuegos del OS X v10.5 permitía el tráfico de datos aún cuando la opción "Bloquear todas las conexiones" estaba activa. En el OS X 10.5.1 estas vulnerabilidades fueron corregidas. La leyenda en la interfaz de usuario fue cambiada a "Permitir solo los servicios requeridos". Las conexiones salientes no pueden ser monitoreadas por los cortafuegos incluidos en el sistema. Para este propósito se requieren programas complementarios como "Little Snitch" o "GlowWorm". Malware De los troyanos conocidos para OS X en el 2010, solo 2 fueron calificados como peligrosos. Estos programas se introducen al sistema mediante engaños o fraudes como lo son la descarga gratuita de una versión de OS X sin licencia, sitios para adultos, solicitudes de descarga de códecs y situaciones similares. No existe evidencia de la existencia de virus para el OS X. Los antivirus para OS X, sirven para que éste evite la multiplicación de virus que fueron escritos para otros sistemas operativos. A 2010, para OS virus de malware únicamente existen 9 prototipos de virus o gusanos malware X conocidos. Esta estadística incluye la publicación del primer computador para Mac OS X 10-4 (PowerPC) sin embargo este debe ser instalado voluntariamente por el usuario. GUIA DE AUDITORIA Seguridad Física Justificación: Es muy importante ser consciente que por más que la empresa sea la más segura desde el punto de vista de ataques externos, Hackers, virus, etc. la seguridad de la misma será nula si no se ha previsto como combatir algún desastre natural, intento de robo, etc. Objetivos: • Evaluar los mecanismos que se están utilizando para controlar el acceso de personal al centro de informática y salas de servidores. • Verificar que se tenga señalización en las áreas de informática, como rutas de emergencias, ubicación de extintores, etc. • Evaluar el estado de las UPS que soportan los equipos del área de informática. • Verificar que correctamente. • Verificar que se este llevando a cabo una limpieza tanto en los equipos y servidores como en los centros donde se encuentran estos. • Verificar que la infraestructura física de los centros de informática y las salas de servidores se encuentren en buen estado. • Verificar que el entorno de los centros de informática y salas de servidores tengan un adecuado control en cuando a temperatura, húmeda, ventilación, etc. las instalaciones eléctricas estén organizadas Cuestionario de control: para verificar que la información acá suministrada sea verdadera se solicitara al encuestado los documentos que soporten dicha información, además de la encuesta se hará una supervisión la cual nos generara resultados más reales en cuanto al estado físico de la infraestructura. 1. ¿Cuenta la empresa con alguna política para controlar el acceso del personal no autorizado? Si___ no____ 2. ¿Cuentan con mecanismo para verificar que las personas que entran a los centros informáticos o centro de servidores si estén autorizadas? Si____no___ ¿Cuales?__________________________________________________ _________________________________________________________ __________________________________________________ 3. ¿Llevan registro de las personas que entran a las los centros informáticos? Si____ no____ En caso tal que no lleven registro por que no lo hacen: _________________________________________________________ _________________________________________________________ ___________________________________________________ 4. ¿Utilizan algún tipo de señalización en los centros informáticos que indiquen al personal que se debe hacer en caso de alguna emergencia? SI____no_____ Mencione algunas: _________________________________________________________ _____________________________________________________ 5. ¿Utilizan algún tipo de advertencia visual en los centros informáticos que indiquen al personal que no debe hacer o que debe hacer dentro de estas? Si___no____ 6. Califique de 0 a 5 los siguientes ítems que están relacionadas al entorno físico donde 0 no es el adecuado y 5 si es el adecuado. Humedad______ Ventilación_____ Temperatura____ 7. ¿Cada cuanto hacen mantenimiento a las UPS? Cada vez que presentan problemas_____ Cada 6 meses____ De 6 a 12 meses____ No realizan mantenimiento a las UPS____ Otro ¿Cuál?___________________________________ 8. ¿Tienen algún registro de quien realiza este mantenimiento, el motivo del mantenimiento, problemas que se encontraron, etc.? Si____ no___ 9. ¿Quién es el encargado de hacerle limpieza a los equipos o a las salas, cual es su cargo dentro de la empresa? __________________________________________________ 10. ¿Tiene algún registro de cada cuanto hacen este proceso? Si___no____ Instalación y configuración inicial Justificación: Durante el proceso de instalación y configuración del sistema operativo se definen los parámetros que guiaran el funcionamiento y rendimiento de este, dicho proceso debe realizarse cuidadosamente y se debe garantizar que la configuración final cumpla con lo requisitos funcionales y de seguridad del o los sistemas informáticos que soporta. Objetivos: • Verificar la existencia de políticas y estándares para la instalación y configuración del sistema operativo y evaluarlas. • Evaluar el número de particiones que se realizaron durante el proceso de instalación y el tamaño y distribución de estas. • Verificar los servicios instalados, cuales se encuentran activos y cuales arrancan automáticamente. • Evaluar la configuración de opciones de montaje para los diferentes sistemas de archivos. • Evaluar que paquetes se encuentran instalados en el sistema operativo. • Verificar y evaluar los parámetros de seguridad configurados. • Evaluar si se ha realizado instalación por defecto. Cuestionario de Control: Mantenimiento y soporte: Justificación: después de un tiempo determinado es necesario realizar un mantenimiento y un soporte a los sistemas operativos ya que en el mundo de las tecnologías todo esta en constante crecimiento y por lo tanto nuestros sistemas operativos van quedando obsoletos. Objetivos: • Verificar que los proveedores si estén prestando un respectivo soporte a los sistemas. • Verificar que se tenga planes de mantenimiento tanto lógico como físico y que estos planes se cumplan a la medida. • Evaluar si las contrataciones que se tienen con terceros para el servicio de mantenimiento si se este llevando a cabo como debe ser. • Verificar que se estén haciendo las actualizaciones pertinentes al Hardware. Cuestionario de control: para verificar que la información acá suministrada sea verdadera se solicitara al encuestado los documentos que soporten dicha información. 1. ¿Los proveedores si están prestando el correspondiente servicio de soporte? Si____ no____. 2. ¿En la empresa cuentan con algún plan de mantenimiento o de soporte? Si____no____ 3. ¿Cuentan con algún tipo de contrato con terceros para la realización del mantenimiento? Si ____ no____ 4. ¿Los servicios que estos prestan ha sido de gran utilidad? Si___no____ 5. ¿De que forma se enteran de que hay nuevas actualizaciones disponibles tanto para el hardware como para los sistemas? _____________________________________________________ _____________________________________________________ __________ 6. ¿Las actualizaciones las realizan inmediatamente o que procesos siguen para realizar este proceso? Si____ no____ 7. ¿Tienen algún registro de las actualizaciones que se han hecho a lo equipos y a los sistemas? Si____ no_____ Seguridad lógica Justificación: teniendo en cuenta que el recurso más importante de una organización es la informática, se deben tener mecanismos de protección que vayan mas allá de los límites físicos, se debe garantizar que el acceso y el tratamiento de los objetivos propios del sistema operativo y la información sea solo por aquellos que estén autorizados y bajo condiciones establecidas.