Configurando linux


Tras la decepción inicial, y a pesar de que no todo se puede considerar tiempo perdido ya que algo he aprendido sobre el OpenFirmware y como arranca el Mac, he creido que era necesario no desistir y tratar de conseguir el objetivo: tener una distribución de Ubuntu instalada en un USB para reutilizar mi portátil y darle una segunda vida (pero sin eliminar de momento la instalación de OSX)

Buscando, buscando, encuentro un foro donde indican que, en lugar de volcar la imagen en la primera partición se haga directamente en el dispositivo, es decir:

sudo dd if=fichero-imagen.iso of=/dev/disk2      
     # en lugar de /dev/disk2s1

Una vez termina, vuelvo a probar y LA COSA CAMBIA!!! Empieza a cargar algo, la pantalla se vacia y un par de segundos después vuelvo a la consola de OpenFirmware pero con el siguiente mensaje:

Can’t OPEN: cd:\install\yaboot

Algo es algo, parece que he dado un paso adelante… sólo falta llegar al yaboot 🙂

(más…)

He tratado de instalarme nuevos navegadores en mi iBook G4 (si, ya sé que es toda una reliquia, pero me funciona perfectamente para lo que lo necesito, o al menos hasta hace poco así era) para probar algunas de las novedades de HTML5 y CSS3, pero todo ha sido en valde… No puedo actualizar Opera (necesito OSX 10.5), no puedo actualizar Firefox (ahora tengo la 3.6.15, me pide también OSX 10.5 para pasar a la siguiente), no puedo actualizar Safari (sigo con la 4.1 y el impedimento es el mismo), no puedo por supuesto instalarme un InternetExplorer (por razones evidentes) y no puedo instalarme ninguna versión de Chrome (también necesita la 10.5)

Tampoco he podido en algunas ocasiones instalar otra aplicaciones de escritorio por el mismo motivo, aunque en realidad es porque en la versión 10.5 se incluye el JavaVM 1.6 (que no está disponible oficialmente para Tiger)

Sin embargo, y viendo que el problema era la versión de Java pensé que tal vez había una esperanza… y buscando, buscando encontré un port de Java para Tiger (soylatte), que incluso se puede compilar (porque la que ofrece el desarrollador es para intel). Y si! Se puede instalar y tengo el ejecutable de java, pero no el Framework (al menos no organizado al “estilo MacOS”) y por tanto las aplicaciones se siguen quejando de lo mismo (aunque en la consola me diga: java version “1.6.0_03-p3”)

Ya casi me había rendido cuando se me ocurrió…. ¿¿¿ Y si me descargo un ubuntu en un pendrive y arranco desde el usb??? debería ser posible… pues manos a la obra!!

(más…)

Haca tiempo que no escribía nada, ya que últimamente estoy trabajando bastante con equipos que usan Ubuntu y la verdad es que los problemas son mínimos y la gente que los usa estan encantados de la vida. Sin embargo, todavía hay algunas cosas que no funcionan tan simple como deberian, me estoy refiriendo por supuesto a ese gran “enemigo” de las distribuciones linux de escritorio: las impresoras.

Le pese a quien le pese, y lo diga quien lo diga, linux todavia no es un gran sistema de escritorio como lo pueden ser windows o mac, en ese sentido siguen ganando estos dos, ya que la sensación que tiene el usuario de poder controlar completamente su equipo y los recursos auxiliares de una manera relativamente sencilla es muy grande…

Seguir leyendo…

   Bueno, con este título seguramente no queda muy claro de que va esto, pero seguro que estás de acuerdo conmigo en lo bonito que es compartir, es algo que de pequeñitos nos enseñan que es mucho mejor que ser egoista y querer las cosas sólo para uno mismo. Y esa idea la hemos llevado al mundo interconectado de hoy en dia donde un ordenador no tiene sentido por si solo, si no tienes acceso al mundo exterior o a recursos compartidos con los demás, de que sirve. Pues de eso va todo esto, de como compartir teniendo en cuenta que todos somos diferentes pero no por ello deben tener unos preferencia sobre los otros.
   No estoy filosofando sobre la naturaleza humana aunque lo pueda parecer, sino sobre los diferentes sistemas operativos y protocolos de compartición de ficheros que existen hoy en dia y de como cada uno tiene sus propias preferencias por uno u otro protocolo a la hora de definir lo que es un recurso compartido (curiosamente cada uno considera que la forma “natural” de compartir es el protocolo propio de su plataforma). Lo ideal sería que, independientemente del sistema operativo que usemos, podamos tener acceso a los recursos de forma totalmente transparente y que luego se presenten en cada sitio adaptados a las condiciones especiales de cada uno. Ésta es la idea detrás del protocolo HTTP, pensado e ideado para compartir información en forma de documentos de texto facilmente accesibles desde cualquier navegador sobre cualquier plataforma: un documento en particular debería poder accederse y obtener el mismo resultado independientemente de la presentación final, pero en esencia el contenido será siempre el mismo.
   Si esto es algo natural para los documentos, ¿porqué no lo es para los ficheros?

Seguir leyendo…

Probablemente una de las causas por las que el usuario medio ha encontrado Ubuntu como una distribución atractiva frente a otras más clásicas es, además de por una buena selección de aplicaciones sencillas, el sistema Debian de actualización de software: apt-get.

Para los que, como yo, venimos del mundo RedHat y funcionamos con sistemas que han heredado su gestión de paquetes RPM, quizá nos parece algo incontrolable el hecho como apt-get gestiona las descargas, ya que simplemente te instala todas las dependencias que te hagan falta y la última versión de todo. Esto en una instalación de usuario típica es fantástico, porque de una manera sencilla configuras las actualizaciones automáticas y siempre estás al día sin preocuparte de que necesitas y si tienes que quitar este o aquel paquete para poder poner el nuevo. Pero en un sistema de servidor no es tan trivial: cambiar la versión de una determinada libreria o aplicación puede hacer que otra, que depende exactamente de aquella, deje de funcionar sin razón aparente.

En ese sentido, el sistema RPM es mucho más selectivo y te permite un mayor control de lo que tienes instalado, y te permite incluso definir desde donde lo quieres instalar (del DVD original, de internet, de un disco en otro ordenador…). Esta es la gran ventaja, a mi modo de ver, del sistema RPM: no necesitas una conexión a internet en cada PC, y esto en una red local de una empresa puede ser el escenario.

De cualquier modo, y teniendo en cuenta la posibilidad que tiene RPM de usar repositorios definidos en algún sitio, podemos emular el funcionamiento de actualización automática de apt-get.

Seguir leyendo…

“nmap” es una herramienta impresionante para configurar, explorar y verificar agujeros de seguridad en redes de todo tipo. Es multiplataforma y está disponible tanto a nivel de consola como en aplicaciones gráficas que le hacen de frontend (“knmap” y similares).

Si leemos la página de manual que tengamos en cualquier distribución linux sobre esta herramienta, veremos la infinidad de opciones y posibilidades que tiene, tantas que se hace muy dificil llegar a ser capaz de entender todo su potencial, sobre todo para alguien que no tenga mucha idea de cómo funciona el tráfico de red, las topologías, servicios, puertos, etc….

He encontrado éste artículo muy interesante en castellano sobre como utilizar este comando con todas sus opciones, desde cero las opciones que pueden ser más comunes, creo que vale la pena que le echeis un ojo.

Parece increíble poder mezclar estos tres conceptos, pero parece ser que el pingüino nos tenia reservada una pequeña sorpresa temporal, al menos en la versión x86-64 que no parece estar muy fina a pesar de llevar ya cierto tiempo en el mercado los procesadores a los que va destinado.

Vayamos al grano, tengo una máquina AMDX2 de 64 bits con un núcleo pre-compilado de la Mandriva2007 para x86-64. El rendimiento es más que aceptable, va muy rápido y no ha dado ningún problema salvo tener que encontrar todo el software que me ha hecho falta en la versión adaptada a esta arquitectura (para poder instalar via RPM, evidentemente podría, y lo he hecho con algún paquete, haber compilado los fuentes, pero no siempre es tan sencillo como pueda parecer)

En cualquier caso, hace unos dias he tenido serios problemas de “continuidad” con el funcionamiento de esta máquina, ya que me aparecían “kernels oops” que la reiniciaban o que la dejaban en un estado inestable en el que la mayoría de señales no funcionaban (fallaba algún subsistema y todo lo relacionado con él también). Los “oops” tenían que ver con IRQs, con E/S de disco cuando haciamos trabajo intensivo sobre él, etc…

Seguir leyendo…

Página siguiente »