Con retraso debido a motivos de salud, como pudieran haber sido cualquier otros perfectamente justificables, he aquí un collage que recopila las imágenes de la práctica en el taller, en la que desmontamos una torre de la casa HP.
Y aquí, un pequeño recopilatorio del resto de las fotos tomadas durante del desmontaje y posterior ensamblado:
Un consejo, utilizad las herramientas patentadas por el fabricante para abrir sus dispositivos. Por lo demás, el resultado y desarrollo de la práctica fue el correcto.
Primero de todo, necesitaremos que aquéllos discos que vayan a formar el RAID estén deshabilitados del sistema, así como que manera que en este momento no los estemos utilizando (¡vamos a formatear!).
Desde la pestaña Ver discos, en Volúmenes, estaremos viendo los discos del sistema, deshabilitados:
Y haremos click en la línea UFS Volume Manager (legacy), que nos abrirá la siguiente ventana:
Como observamos en la imagen, hemos de seleccionar los discos que queramos convertir y darle un nombre al módulo de memoria secundaria que crearemos. Y marcar la casilla raid3 de Tipos de grupo. Por último clickaremos sobre el botón Añadir volumen.
Y ya está hecho. Tras la típica ventana de la barrita de proceso, obtendremos nuestro nuevo volumen de almacenamiento RAID, al que podremos acceder para modificarlo cuanto queramos desde la pestaña Almacenamiento:
Para poder acceder a dicho volumen desde nuestra terminal, no hay que olvidar que también hemos de conceder permisos. Para ello, haremos click derecho sobre la vista del módulo en Almacenamiento y luego en Cambiar permisos, donde los pondremos a nuestro gusto en la ventana correspondiente:
Una vez establecidos los permisos, necesariamente hay que activar el tipo de plataforma con la que compartiremos acceso. Esto lo encontraremos en el apartado del árbol Compatido. Como vemos en las imágenes, en este caso lo he hecho para compartir con un sistema Windows:
Al clickar sobre la línea Añadir compartidos de Windows (CIFS) SAMBA aparecerá la siguiente ventana, donde estableceremos los parámetros a nuestra conveniencia para compartir:
A la hora de trabajar frente al ordenador hemos de tener muy en cuentas qué posturas y de qué manera hemos de manejarnos.
Postura:
Elige una silla que refleje la curva
natural de la columna vertebral, en la que
puedas apoyar tu espalda baja. También puedes ajustar la silla.
Siéntate derecho en la silla y no te inclines.
Cuelga tus brazos verticalmente, cerca
de los costados de tu cuerpo y con los codos flexionados a 90 grados. Si
es necesario, utiliza un teclado extraíble para lograrlo. También
puedes ajustar la altura del asiento.
Dobla las rodillas para que tus pies
estén bien apoyados en el suelo y los muslos estén más o menos en un
ángulo de 90 grados. El soporte para pies puede ayudarte con esto.
Coloca el monitor a una distancia de
aproximadamente 10 a 24 pulgadas (25 cm a 61 cm) de tus ojos para
reducir la fatiga visual. Coloca el monitor al nivel de los ojos,
directamente en frente de ti. Debes ser capaz de ver la pantalla sin
tener que mirar hacia arriba o hacia abajo.
Coloca el ratón en un lugar donde
puedas alcanzarlo con tu brazo doblado en un ángulo de 90 grados. Coloca
un soporte para muñecas delante de tu ratón para apoyo.
Estas directrices deben aplicarse tanto al usar un ordenador de sobremesa como uno portátil.
Una vez explicado cómo ubicarse, los riesgos que asumimos y hemos de evitar son los siguientes:
Tronco, cuello y extremidades superiores
Permanecer mucho tiempo sentado en una postura estática provoca la adopción de posturas forzadas o desviación articular.
Ojos
Una iluminación o un contraste de luminarias inadecuado origina deslumbramientos y reflejos en la pantalla. Para evitar estos reflejos, se adoptan posturas forzadas que pueden producir fatiga visual.
Hombros, extremidades superiores, espalda
Puede producirse una sobrecarga muscular en la zona del cuerpo que soporta el peso del portátil (hace poco, un ordenador portátil podía superar los 4 kg). De igual manera puede suceder si estamos usando un ordenador tumbados boca abajo (en la cama, con el teclado a nuestro alcance, por ejemplo).
Cuello y ojos
Situar los documentos fuera de los ángulos visuales y adaptar la visión a diferentes distancias, luminancias o contrastes, puede provocar una desviación articular, como el giro o la flexión del cuello.
Manos y muñecas
Un entorno de trabajo inadecuado y unos hábitos incorrectos de trabajo pueden provocar lesiones o incomodidades en las manos y las muñecas (síndrome del túnel carpiano), por el riesgo derivado de la exposición a movimientos repetitivos.
Manipulación de los terminales:
Por otro lado, también hemos de tener muy en cuenta los riesgos a los que podemos enfrentarnos cuando abrimos la torre de nuestro ordenador, bien para limpiarla, bien para hacer algún cambio de componentes:
Cargas electrostáticas
La energía estática puede hacer que se dañen los componentes electrónicos. La electricidad estática puede producir descargas de 4000 o incluso más voltios que hacen que se estropee un componente electrónico. Muchas de estas descargas (ESD) que se producen no son visibles al ojo humano. Para evitar dichos riesgos, hemos de evitar:
Utilizar zapatos con suela de goma
Utilizar pulseras conductoras (metálicas), anillos, piercing, etc.
No descargarse estáticamente antes y mientras se está trabajando.
Trabajo con instalaciones eléctricas
Los
equipos informáticos necesitan energía eléctrica para funcionar y, por
ello, contienen condensadores de alto voltaje (220 v) que pueden causar
una descarga eléctrica grave si se tocan. Estos elementos pueden
permanecer cargados incluso cuando el equipo ya no está enchufado y son
capaces de provocar descargas eléctricas fatales. En concreto, la
energía eléctrica presente en los equipos informáticos genera los
siguientes riesgos:electrocución por contacto directoo indirecto,
o incendios a consecuencia de sobreintensidades o sobretensiones. Prevendremos estos peligros si:
No manipularemos aparatos eléctricos con las manos húmedas o sudadas.
No desconectamos los equipos tirando del cable sino del conector.
Mantendremos alejados los cables de las fuentes de calor.
Las tapas de los cuadros eléctricos deben permanecer cerradas y el peligro eléctrico señalizado.
No alterar, ni modificar los dispositivos de seguridad: aislantes, carcasas de protección, distancias preventivas, etcétera.
Tanto cables y como enchufes tendrán una toma de tierra.
No enchufaremos demasiados dispositivos a enchufes múltiples.
Datos a tener en cuenta:
En el interior de los equipos informáticos (excepto en algunos
componentes como las fuentes de alimentación y los monitores) la tensión
que circula es una corriente continua de unos pocos voltios (+5 v, -5
v, +3.3 v, +12 v, etc.). Una descarga de esta corriente no causará
graves daños al trabajador, pero es suficiente para dañar o incluso
destruir definitivamente algún componente informático. Por ello, siempre
que se manipule un ordenador, este debe estar apagado y desenchufado de
la corriente.
Una instalación eléctrica en malas condiciones puede provocar
cortocircuitos e incendios. De hecho, el riesgo de incendio es uno de
los más graves a que están sujetos los talleres informáticos.
Las medidas más eficaces son las preventivas, para evitar que se
produzca el incendio, revisando las instalaciones eléctricas
periódicamente y extremando el orden y la limpieza con el fin evitar la
acumulación de materiales de fácil combustión y propagación del fuego.
Asimismo, se debe contar con suficientes extintores en perfecto estado
de uso y adecuados a la clase de fuego que se puede producir en estas
instalaciones. Además se deben instalar sistemas de detección y alarma y
señalizar y dejar libres las salidas de emergencia. En el caso de los incendios que se pueden producir en un taller
informático, los extintores apropiados son los de clase C (o ABC), de polvo seco polivalente o CO2.
En este tipo de incendios, hay involucradas instalaciones eléctricas,
por lo que, en ningún caso, deberá utilizarse el agua como elemento
extintor por el riesgo de sufrir una descarga eléctrica. En todo caso,
la primera medida será cortar la corriente en el diferencial.
En servidores que almacenan datos muy importantes, se debe tomar
especial precaución con los sistemas contraincendios, debido al gran
valor de los datos. En estas situaciones, se instalan equipos
automáticos de extinción de incendios que no dañan a los equipos, como
sensores de humo y temperatura, extractos de aire, etc
Siempre desde el VirtualBox, seleccionamos nuestra máquina FreeNAS, sin arrancarla, y abrimos la ventana Almacenamiento:
Como vemos en la imagen, hemos de seleccionar el controlador IDE y luego pulsar en el icono inferior para agregar un nuevo controlador, pudiendo elegir entre diferentes "conexiones". En este caso, seleccioné un SATA.
Al igual que en el post anterior, cuando hube de agregar un disco duro virtual a nuestra máquina virtual para que este almacenase el SO, el proceso de añadir un nuevo disco duro es el mismo; es decir hemos de asignarle una capacidad determinada, siendo recomendable que sea VDI (Imagen de Disco de VirtualBox) y reservado dinámicamente.
He añadido hasta 3 discos en la unidad NAS, no olvidéis darle un nombre identificativo a cada disco virtual,
Una vez hecho esto, arrancaremos la máquina y nos dirigiremos a URL asignada, accediendo mediante las contraseñas que le dimos la primera vez que accedimos.
Ahora bien, pese a que acabo de instalar los discos, el software aún no los ha identificado y habilitado, eso tenemos que hacerlo nosotros. Por lo que, navegando en la interfaz de FreeNAS nos dirigiremos a Almacenamiento, desde el árbol de la columna izquierda:
Para activar, uno a uno, los discos, hemos de seleccionar el que queramos y a continuación pulsar Editar:
Para habilitarlo sólo tendremos que seleccionar, en APM (Gestión Avanzada de Energía) cualquiera de los niveles del menú desplegable, según sean nuestras preferencias a la hora de usarlo.
Y ahora, por fin, ya podremos ir almacenando lo que queramos en este disco.
Si no nos bastase con los dispositivos de memorias extraíbles o los servicios de almacenamiento online, o nube, también tenemos la opción de utilizar el sistema operativo FreeBSD.
Dicho SO nos ofrece la posibilidad de gestionar un ordenador personal como un soporte más de
almacenamiento accesible desde red, por ejemplo para almacenamientos
masivos de información, música, backups, etcétera. De hecho, NAS son las siglas en inglés de Almacenamiento Conectado en Red, siendo gratuito, open-source y software libre (basado en licencia BSD).
Previamente necesitaremos tener instalada una máquina virtual. Puedes descargar gratuitamente una en VirtualBox.
Preparación de la máquina virtual:
Creamos una nueva máquina virtual dentro de Oracle VM: Nueva >> Tipo: BSD >> Versión: FreeBSD (64bit [ó 32bit, según prefiramos])
Le damos una capacidad concreta de memoria, según sean nuestras preferencias y los recursos de los que dispongamos:
Dejaremos por defecto el que cree un disco duro nuevo para esta máquina, a no ser que ya tuviésemos uno virtual antes; así como una imagen de disco virtual y establecemos que el almacenamiento en el disco duro sea reservado dinámicamente:
Designamos la capacidad de almacenamiento del disco duro la máquina virtual que albergue este sistema (como este es un caso de ejemplo, no necesitaré más de 2 GB)
Una vez establecidos los parámetros virtuales de nuestra nueva máquina, hemos de vincular la ISO del driver de instalación de FreeNAS. Para ello, desde la interfaz de usuario del ViltualBox accederemos a la ventana de Almacenamiento. Clickando sobre el icono de un CD, y luego en Unidad CD/DVD, tal y como se muestra en la imagen, accederemos al directorio donde almacenamos dicha ISO:
A continuación, en la misma ventana, accederemos al apartado Red donde hemos de habilitar el adaptador de red (en caso que no lo estuviese), conectándolo a un Adaptador puente:
Instalación del dispositivo:
Una vez hecho el paso anterior, por fin podemos arrancar la máquina. Tras inicializarse, llegaremos al siguiente menú:
Para seguir con la instalación habremos de escribir la primera opción del menú, o sea escribir "boot" y pulsar ENTER.
Desdeaquí llegaremos al siguiente menú, donde volveremos a seleccionar la opción número 1 Install/Upgrade y a continuación pulsar ENTER tras seleccionar OK:
Nosdará a elegir en qué disco duro queremos que se haga la instalación. Como en este caso sólo hemos "instalado" uno, ese es el único que aparece:
Y como último paso durante la instalación, no avisará, como es costumbre, de que el contenido del disco se borrará automáticamente para terminar el proceso, pero antes nos preguntará si estamos seguros de querer hacerlo. Presionamos ENTER de nuevo:
Tras todo este proceso, si la instalación ha finalizado con éxito, nos mostrará el siguiente mensaje de confirmación:
Tal y como nos solicita, habremos de "retirar" el "CD de instalación" y reiniciar la máquina. La máquina virtual, claro.
Para ello, volveremos a la interfaz del VirtualBox e iremos, de nuevo, a la ventana de Almacenamiento, donde haciendo click en el icono del CD del campo Unidad CD/DVD se desplegará un menú como en la imagen:
Seleccionaremos Eliminar disco de la unidad virtual, obviamente.
Ahora volveremos a la ventana de la máquina virtual para cerrarla, pulsando ENTER en la imagen de que la instalación ha sido un éxito, regresando de nuevo al menú previo a la instalación, donde esta vez seleccionaremos la tercera opción (Reboot System) para resetear el sistema:
Si por alguna circunstancia no se reiniciase el sistema y volviera una y otra vez al mismo menú tras pulsar ENTER varias veces, sólo tendríamos que cerrar esta ventana, la de la máquina, y marcar la casilla de Apagar la máquina virtual.
Y la instalación habrá terminado definitivamente.
Usando por primera vez FreeNAS:
Para utilizar FreeNAS necesitaremos que esté encendida nuestra máquina virtual (en nuestro caso). Tras inicializarse el sistema, llegaremos al menú de la siguiente imagen, donde podremos hacer las modificaciones del sistema que deseemos:
Ahora bien, si no necesitamos modificar nada más, dejaremos la máquina virtual funcionando tal cual y abriremos ahora el navegador web, donde escribiremos la URL que nos dará el sistema. Esta URL no es más que la IP del dispositivo en el que hayamos instalado el FreeNAS:
La primera vez que accedamos tendremos que asignar una contraseña y confirmarla. Una vez hecho este último paso, podremos modificar el contenido de nuestro módulo de memoria NAS a nuestro gusto mediante esta interfaz.
En las próximas entradas indicaré cómo agregar nuevos discos al módulo de memoria.
Hoy vamos a fijarnos en una tarjeta gráfica que reuna los requisitos para los más exigentes: la Sapphire Radeon R 295X2
Está equipada con modernas tecnologías creadas por AMD Eyefinity, una
nueva interfaz o Manto DirectX versión 11.2. La guinda del pastel es la
caja metálica exclusiva (por lo que habrá que tener muy en cuenta el espacio que vaya a ocupar una vez conectada a nuestra placa) y su refrigeración por agua.
Con su doble núcleo se obtiene
un increíble rendimiento de 11,5 TFLOPS. Esto es posible gracias a la
presencia de 2x 2816 procesadores stream, 2x 176 2x TMU y 64 ROP.
Se trata deuna nueva y potente
tecnología dentro del área del almacenamiento de datos de gran capacidad, basada en bits individuales
que son almacenados magnéticamente o a través de cambios ópticos en la
superficie del soporte de grabación. Hasta
ahora, si no contamos los dispositivos de almacenamiento portátil
USB/tarjeta SD, el sistema más popular utilizado han sido los CD-ROM, DVD y
BluRay.
Fuente: monografías.com
Pieter J. van Heerden fue el primero en
proponer la idea del almacenamiento holográfico (tres dimensiones) en
los años sesenta. Una década más tarde, científicos de los laboratorios
RCA demostraron esta tecnología al grabar quinientos hologramas en
cristal de litio niobate, y 550 hologramas de alta resolución en un
material altamente sensible a la luz. Debido al coste, y con el avance de memorias basadas en semiconductores y partes
magnéticas, el proyecto se interrumpió. Sin embargo, en
la pasada década varios grupos, como la agencia de defensa para la
investigación (DARPA), IBM y los laboratorios Dell de Lucent
Technologies, ha hecho resurgir el desarrollo de la memoria holográfica
Por tanto, el almacenamiento de datos en tres
dimensiones podrá guardar información en un espacio más pequeño, y
ofrecer tiempos de transmisión de datos mucho más rápidos. Veremos a
continuación como será la memoria holográfica en los próximos años y lo
que costará crear una versión para ordenador de este sistema de
almacenamiento de alta densidad.
Sin embargo, los principales problemas prácticos con la memoria holográfica están relacionados con la transformación de la información en el ordenador .
En teoría , para cada ángulo se almacena una imagen diferente ,
debido a que se trata de un patrón de interferencia diferente. Por lo
tanto, en un cristal en tres dimensiones pueden almacenarse miles de
imágenes.
Fuente: sabia.tic.udc.es
La memoria holográfica ofrece la
posibilidad de almacenar 1 TB de datos en un cristal del
tamaño de un cubito de azúcar. Muchos
discos duros en la actualidad solo pueden guardar una fracción de lo que
un sistema de memoria holográfica puede almacenar.
Así, podemos deducir que el resurgimiento del disco compacto está a la vuelta de la
esquina. En cuanto desarrollen –y sobretodo abaraten– los dispositivos
de grabación del mismo.
Un robot del tamaño de un perro pug llamado Pioneer rueda lentamente
hasta una figura del Capitán América en la alfombra. Están frente a
frente en un modelo de habitación infantil que el fabricante de chips
inalámbricos Qualcomm ha recreado en un remolque. El robot hace una
pausa, como si estuviera evaluando la situación, y después agarra la
figura con una extensión parecida a un barredor de nieve, se da la
vuelta, y lo empuja hacia tres pilares que representan contenedores de
juguetes. El ingeniero sénior de Qualcomm Ilwoo Chang mueve ambos brazos
hacia el pilar en el que el juguete debe ser depositado. Pioneer ve el
gesto con su cámara y cumple la orden obedientemente. Luego va hacia
atrás y ve otra figura de acción, Spider-Man. Esta vez Pioneer va en
línea recta hacia el juguete, ignorando un tablero de ajedrez cercano, y
lo lleva al mismo pilar sin ayuda humana.
Esta demostración en la sede de Qualcomm en San Diego (EEUU) parece
poca cosa, pero representa una mirada al futuro de la informática. El
robot está realizando tareas que normalmente requieren el uso de
potentes ordenadores, especialmente programados y con más consumo
eléctrico. Pioneer sólo usa un chip inteligente con software
especializado, y puede reconocer objetos que no ha visto antes,
clasificarlos por su similitud con objetos relacionados y navegar por la
habitación para llevarlos al lugar adecuado. Todo esto lo consigue no a
través de una programación compleja, sino simplemente porque alguien le
ha mostrado una vez dónde deben ir. El robot lo hace porque está
simulando, aunque de forma muy limitada, el modo en que funciona el
cerebro.
A finales de este año, Qualcomm comenzará a revelar cómo integrar la
tecnología en los chips de silicio que se usan para toda clase de
dispositivos electrónicos. Estos chips neuromórficos, llamados así
porque se inspiran en cerebros biológicos, serán diseñados para procesar
datos sensoriales como imágenes y sonido, y para responder a los
cambios en dichos datos de un modo no programado específicamente.
Podrían acelerar décadas de progreso intermitente en el campo de la
inteligencia artificial y dar lugar a máquinas que sean capaces de
entender e interactuar con el mundo de formas similares a las humanas.
Hoy día los ordenadores usan la llamada arquitectura von Neumann, que
transporta los datos entre el procesador central y los chips de memoria
en secuencias lineales de cálculos. Ese método es ideal para trabajar
con números y ejecutar programas escritos de forma precisa, pero no para
procesar imágenes o sonido y darles sentido. Buen ejemplo de ello es
que en 2012, cuando Google hizo una demostración de un software de
inteligencia artificial que aprendió a reconocer gatos en vídeos sin que
se le dijera lo que era un gato, necesitó 16.000 procesadores para
llevarlo a cabo.
Seguir mejorando el rendimiento de estos procesadores requiere que sus
fabricantes incluyan más transistores cada vez más rápidos, cachés de
memoria de silicio y vías de datos, pero el enorme calor generado por
todos estos componentes limita la velocidad de funcionamiento de los
chips, especialmente en dispositivos móviles con gran consumo
energético. Eso podría orientar el progreso hacia la creación de
dispositivos que procesen eficazmente imágenes, sonido y otra
información sensorial y luego apliquen la información a tareas como el
reconocimiento de rostros y la navegación de robots o vehículos.
Infografía que resume cómo funcionan los chips neuromórficos. Fuente: Qualcomm
Nadie tiene más interés en superar estos retos físicos que Qualcomm, el
fabricante de los chips inalámbricos utilizados en muchos teléfonos y
tabletas. Los usuarios de dispositivos móviles cada vez exigen más de
sus dispositivos. Pero los servicios de asistente personal actuales,
como Siri de Apple y Google Now, están limitados ya que deben recurrir a
la nube para que otros ordenadores más potentes respondan o anticipen
las consultas.
A los programadores les llevará tiempo averiguar la mejor forma de
aprovechar el hardware. "No es demasiado pronto para que las compañías
de hardware empiecen a realizar investigaciones", señala el cofundador
de la start-up de inteligencia artificial Vicarious, Dileep
George. "Los productos comerciales podrían llevar algún tiempo". Los
ejecutivos de Qualcomm están de acuerdo. Aunque creen que la tecnología
que esperan lanzar este año haga que esos productos se acerquen mucho
más a la realidad.
Ahora, aunque sólo podamos imaginarlo, contemplemos los dispositivos móviles y periféricos que nos rodean y pensemos, por un momento, que hemos dado un salto hacia el futuro (más cercano de lo que creemos) y que el hardware de éstos contiene chips neuromórficos. Para empezar, ¿haría falta tocarlos físicamente para interactuar con ellos?
Sabemos que la memoria secundaria es un componente usado por el PC para guardar grandes cantidades de información, y que sus principales características son:
Elevada capacidad de almacenamiento.
No son volátiles.
Tanto su velocidad de transferencia como su relación precio/byte son menores si las comparamos con las de una memoria principal.
Además, en función de la tecnología que emplean para leer y escribir la información que almacenan, tradicionalmente se distinguen entre:
Memorias magnéticas
Memorias ópticas
Memorias sólidas
Ahora bien, estamos en el siglo XXI, por lo que dicha tecnología de lectura/escritura avanza a pasos agigantados, habiendo nacidoun cuarto tipo de memoria secundaria, la cual paso a describir a continuación:
Memorias híbridas
Los discos duros híbridos, también conocidos como unidades de estado sólido híbridas (SSHD), combinan las características de disco duro convencional con prestaciones similares a una SSD. Son unos disco duros que cuentan con un búfer de alta capacidad, porque integran una caché de memoria no volátil o incluso una pequeña unidad de almacenamiento sólido (SSD). A diferencia de los discos duros convencionales, los discos duros híbridos o SSHD
mantienen el motor y los platos en descanso, sin consumir energía, ni
generar calor. Los datos se escriben en la memoria flash del búfer que
es no volátil, esto es, no existe riesgo de pérdida de datos si se corta
la energía. A la hora de leer los datos guardados en los platos del
disco duro híbrido, esa información después se guarda en la memoria del
búfer.
Los discos duros híbridos o unidades de estado sólido híbridas presentan diversas ventajas frente a los discos duros convencionales, especialmente para su integración en ordenadores portátiles. El arranque del sistema es mucho más rápido y, en general, aumenta la velocidad de acceso a los datos. Al no tener los platos girando todo el tiempo, consumen menos energía; así, se incrementa la autonomía de la batería. Además presentan una mayor fiabilidad, gracias a la memoria flash del búfer. El rendimiento
de la máquina es superior para muchas aplicaciones, por ejemplo, para
el almacenamiento de contenidos multimedia, para la edición ficheros de
vídeo grandes o para generar informes desde una base de datos. Y también
se acentúan las capacidades de multitarea.
1. Intel® Socket 2011 for 2nd Generation Core™ i7 Processors
3. 4 x DIMM, Max. 32GB, DDR3 2400(O.C.)/2133(O.C.)/1866/1600/1333/1066 MHz
4. 8-pin ATX 12V Power connector
5. 24-pin EATX Power connector
6. USB 3.0 connector(s) support(s) additional
7. Chipset Nordbridge Intel® X79
8. SATA
9. Pila
10. PCIe 3.0/2.0 x16
11. Chipset Southbridge
12. BIOS
Panel Frontal
1. Conector mixto para el teclado o ratón y puertos USB 2.0
2. Botón CMOS
3. Puerto PS/2
4. Salida óptica S/PDIF
5. Puertos USB 2.0
6. Conector Ethernet LAN (RJ-45) y puertos USB 2.0
7. Conector eSATA (para 3Gb/s) y puertos USB 3.0
8. Conectores de sonido:
La principal diferencia de estas memorias con la memoria ROM de nuestro ordenador es que la capacidad de almacenamiento de éstas es limitado. De hecho pierden la información acumulada durante la última sesión cuando el suministro eléctrico se cierra, por lo que su contenido puede ser escrito y leído tantas veces como sea necesario (sic).
La clasficación de este tipo de memorias va pareja a su evolución en el tempo:
Módulos SIMM:
Un SIMM, o de un solo módulo de memoria en línea, es un tipo de módulo
de memoria que contiene la memoria de acceso aleatorio utilizado en los
ordenadores de la década de 1980 a finales de 1990. Se diferencia de una
doble en línea módulo de memoria, la forma más predominante de módulo
de memoria de hoy en día, en que los contactos de un SIMM son
redundantes en ambos lados del módulo. SIMM se estandarizaron según la
norma JESD-21C JEDEC.
Dos modelos de SIMM de 30 pines. Fuente: webtaller.com
La primera variante de SIMM tiene 30 pines y proporciona 8 bits de
datos. Fueron utilizados en AT, 386, 486, sistemas VS Wang Macintosh
Plus, Macintosh II, Quadra, Atari STE y.
Éstos son las diferentes variantes de módulos de memoria SIMM:
- SIMM de 30 pines: Tamaños estándar: 256 KB, 1 MB, 4 MB, 16 MB. Los 30-pin SIMM tienen 12 líneas de dirección, que puede proporcionar un
total de 24 bits de la dirección. Con una anchura de datos de 8 bits,
esto conduce a una capacidad máxima absoluta de 16 MB para los dos
módulos de paridad y sin paridad.
- SIMM de 64 pines: Se hicieron varias tarjetas CPU de Great Valley Productos para el Commodore Amiga utilizan 64-pin SIMM especial. Para los Apple
Macintosh IIfx se fabricaron las 64-pin SIMM de doble puerto, que se utilizaban para permitir la superposición de lectura/ciclos de
escritura.
- SIMM de 72 pines: Tamaños estándar: 1 MB, 2 MB, 4 MB, 8 MB, 16 MB, 32 MB, 64 MB, 128 MB. Con 12 líneas de dirección, que puede proporcionar un total de 24
bits de la dirección, dos filas de chips, y los 32 bits de datos de
salida, la capacidad máxima absoluta es de 227 = 128 MB.
En las Dual In Line Memory Module, los módulos se disponen en paralelo en uno o ambos lados de la memoria, pero siempre con contactos eléctricos separados,
cada uno independiente del otro.
La ventaja evidente es que la memoria DIMM podía tener hasta el doble de capacidad con la misma tecnología que las memorias SIMM que se venían utilizando hasta entonces. Por si fuera poco, al tener ya los módulos emparejados en un solo chip, permitían trabajar con 64 bits con un sólo módulo,
en vez de los 32 normales de las memorias SIMM, lo que le posibilitaba
trabajar con ordenadores, periféricos y sistemas operativos más
modernos, que requerían 64 bits, y que por tanto hubiesen necesitado un
par de memorias SIMM instaladas de forma simultánea (32 bitsx2) para
poder trabajar.
A pesar de tener una estructura común, había muchos tipos de módulos DIMM, clasificados no sólo según su capacidad (desde 32 mb hasta 512 mb por módulo), sino también según la velocidad de transferencia
(las más comunes eran de 66, 100, 133 o 150 megaherzios, siendo esa
velocidad limitante del rendimiento global del equipo) o del tiempo de acceso a los datos (entre 12 y 8 nanosegundos).
Los principales modelos de módulos DIMM son:
SDRAM: Synchronous Dynamic Random-Access Memory,con las que el cambio de estado de memoria viene marcado por una señal de
reloj y, de modo que está sincronizada con el bus de sistema del
ordenador. El reloj también permite controlar una máquina de estados finitos interna que controla la función de pipeline --o segmentación-
de las instrucciones de entrada. Esto permite que el chip tenga un
patrón de operación más complejo que la DRAM asíncrona, que no tiene una
interfaz de sincronización. El método de segmentación significa que el chip puede
aceptar una nueva instrucción antes de que haya terminado de procesar la
anterior. En una escritura de datos, el comando escribir puede ser
seguido inmediatamente por otra instrucción, sin esperar a que los datos
se escriban en la matriz de memoria. En una lectura, los datos
solicitados aparecen después de un número fijo de pulsos de reloj tras
la instrucción de lectura, durante los cuales se pueden enviar otras
instrucciones adicionales (latencia).
DDR SDRAM: Double Data Rate Synchronous Dynamic Random-Access Memory, se trata del modelo más utilizado en la actualidad (sic); estos módulos se diferencian de sus hermanos DIMM SDRAM, principalmente, en su mayor número de pines: 184 en las DIMM DDR SDRAM frente a los 168 de las DIMM SDRAM, además de una única muesca en la placa para encajarse en la ranura. El funcionamiento de estos módulos es el siguiente: se envían los datos del proceso que se está realizando dos veces por señal de reloj, una vez en cada extremo de dicha señal, o a la ida y a la vuelta de la señal (ascendente y descendente).
Rambus In Line Memory Module, o módulo de memoria con bus integrado. Este tipo de módulos conforman el estándar DIMM, pero no es compatible pin a pin. Su arquitectura está basada en el requerimiento eléctrico del canal Direct Rambus, un bus de alta velocidad operando a una frecuencia de reloj de 400 MHz, el cual permite una transferencia de datos de 800 MHz. Un canal de dos bytes de ancho se usa para dar un pico de transferencia de datos de 1,6 Gb por segundo. El bus usa las líneas de transmisión características para mantener la alta integridad de la señal. Se pueden usar hasta tres módulos RIMM en una placa base de un PC de escritorio. El canal Rambus se extiende desde el controlador a través de cada módulo RIMM usado de una forma continua hasta que se alcanza la terminación del canal. Los módulos de continuidad de bajo costo se usan para mantener la integración del canal en sistemas que tengan menos de tres módulos RIMM.
Éstas son las variantes de módulos RIMM que existen actualmente:
DDR2: Double Data Rate tipe 2, éstos son capaces de trabajar con 4 bits por ciclo, es decir 2
de ida y 2 de vuelta en un mismo ciclo mejorando sustancialmente el
ancho de banda potencial bajo la misma frecuencia de una DDR SDRAM
tradicional. Este
sistema funciona debido a que dentro de las memorias hay un pequeño
buffer que es el que guarda la información para luego transmitirla fuera
del modulo de memoria, y almacenando 4 bits para
luego enviarlos, lo que a su vez redobla la frecuencia nominal sin
necesidad de aumentar la frecuencia real de los módulos de memoria. Esto causa que las memorias DDR2 tienen mayores latencias que las conseguidas con las DDR
convencionales, perjudicando su rendimiento, debido a que se necesita mayor tiempo de "escucha" por
parte del buffer y mayor tiempo de trabajo por parte de los módulos de
memoria, para recopilar esos 4 bits antes de poder enviar la información.
DDR3: Éstas son una mejora de las memorias DDR2, pues proporcionan
significantes mejoras en el rendimiento en niveles de bajo voltaje, lo
que lleva consigo una disminución del gasto global de consumo. Los
módulos DDR3 tienen 240 pines, el mismo número que DDR2; sin embargo, son físicamente incompatibles debido a una ubicación diferente de
la muesca.
DDR4: Éstos tienen un total de 288 pines. La velocidad de datos por pin, va de un mínimo de 1,6 GT/s hasta un objetivo máximo inicial de 3,2 GT/s. Las memorias RIMM DDR4 tendrán un mayor rendimiento y menor consumo que las memorias DDR predecesoras. Tienen un gran ancho de banda en comparación con sus versiones anteriores, voltajes, interfaz física y otras. Sin embargo, su principal ventaja es su tasa más alta de frecuencias de reloj y de transferencias de datos (2133
a 4266 MT/s en comparación con DDR3 de 800M a 2.133MT/s), la tensión es también menor a sus antecesoras (1,2 a 1,05 para DDR4 y
1,5 a 1,2 para DDR3) DDR4 también apunta un cambio en la topología
descartando los enfoques de doble y triple canal, cada controlador de
memoria está conectado a un módulo único.