Ecucha La Radio en linea

Escucha La Radio Enfamilia

jueves, 6 de noviembre de 2025

Debian 13 agregar repositorios

 Dependiendo de cómo instalaste Debian, sí, la configuración del repositorio podría solo contener el ISO de instalación y nada más. Si ese es el caso, solo vas a necesitar agregar esas líneas en /etc/apt/sources.list

deb http://deb.debian.org/debian trixie main non-free-firmware

deb-src http://deb.debian.org/debian trixie main non-free-firmware

deb http://deb.debian.org/debian-security/ trixie-security main non-free-firmware

deb-src http://deb.debian.org/debian-security/ trixie-security main non-free-firmware

deb http://deb.debian.org/debian trixie-updates main non-free-firmware

deb-src http://deb.debian.org/debian trixie-updates main non-free-firmware

Edit: también podrías querer agregar contrib y non-free, dependiendo de los paquetes que necesites en tu sistema.

miércoles, 5 de noviembre de 2025

Reparar DPKG en linux

 Reparar dpkg en Debian 13, primero ejecuta sudo dpkg --configure -a para configurar los paquetes instalados pero no configurados. Si el problema persiste, prueba con sudo apt --fix-broken install para intentar reparar las dependencias rotas.

Reconfigura todos los paquetes: Si tienes problemas específicos 

con la configuración de ciertos paquetes, puedes reconfigurarlos individualmente con: 

sudo dpkg-reconfigure <nombre_del_paquete>

Para reiniciar la línea de comandos de Debian, puedes usar sudo systemctl reboot o el comando simple reboot para reiniciar el sistema completo. Si lo que quieres es limpiar la pantalla de la terminal sin reiniciar el sistema, usa el comando clear
Para instalar el entorno de escritorio KDE Plasma en Debian 13, puedes utilizar el metapaquete task-kde-desktop o kde-plasma-desktop
Actualiza la lista de paquetes e instala las actualizaciones existentes
sudo apt update && sudo apt upgrade -y

Reconfiguración de paquetes

Si has instalado paquetes que requieren reconfiguración, puedes hacerlo con el siguiente comando:

dpkg-reconfigure locales
dpkg-reconfigure tzdata
  1. Abre la Terminal: Inicia la aplicación de terminal en tu sistema Debian.

  2. Edita el archivo sources.list: Usa el comando sudo nano /etc/apt/sources.list para abrir el archivo de configuración de los repositorios con permisos de superusuario.

  3. Agrega los repositorios:


En Debian 13 se empieza a usar por defecto un nuevo sistema llamado DEB822. En vez de un solo archivo lleno de líneas raras, cada repositorio se define en un archivo separado, con una estructura más clara y ordenada.

Por ejemplo:

cat /etc/apt/sources.list.d/debian.sources

Types: deb
URIs: http://deb.debian.org/debian
Suites: trixie
Components: main contrib non-free non-free-firmware
Signed-By: /usr/share/keyrings/debian-archive-keyring.gpg


https://voidnull.es/adios-sources-list-hola-deb822-como-cambian-los-repos-en-debian-13/#:~:text=va%20a%20cambiar.-,Llega%20DEB822%2C%20el%20nuevo%20formato%20para%20los%20repositorios,estructura%20m%C3%A1s%20clara%20y%20ordenada.

martes, 4 de noviembre de 2025

Actualización a Debian 13

 

https://blog.cursosdedesarrollo.com/posts/post-016/

En este artículo, te guiaremos a través del proceso de actualización de Debian 11 a Debian 13. Actualizar tu sistema operativo es crucial para mantener la seguridad, estabilidad y acceso a las últimas características. A continuación, te mostraremos cómo realizar esta actualización de manera segura y sencilla. en el link anterior

Entendiendo Sentora: Panel de control de alojamiento de código abierto

 https://www.howto-do.it/what-is-sentora/

Bienvenidos a mi artículo sobre Sentora, el panel de control de hosting de código abierto diseñado para simplificar la gestión del alojamiento web para pequeños y medianos proveedores de servicios de internet (ISP) y usuarios particulares. En esta guía, les explicaré las principales características de Sentora, su proceso de instalación y lo compararé con cPanel , otro panel de control de hosting muy popular.

https://www.howto-do.it/what-is-sentora/

Sentora ofrece una amplia gama de funciones y herramientas que simplifican la gestión de tu alojamiento web. Tanto si eres principiante como si tienes experiencia, Sentora te proporciona la funcionalidad necesaria para crear y gestionar servicios, integrarte con API, ofrecer cuentas de revendedor y personalizar el panel de control con la identidad de tu empresa. Sentora es compatible con servidores Linux , UNIX y BSD, lo que te permite elegir la plataforma que mejor se adapte a tus necesidades.

Conclusiones clave

  • Sentora es un panel de control de alojamiento de código abierto diseñado para proveedores de servicios de Internet pequeños y medianos, así como para particulares.
  • Ofrece una variedad de funciones y herramientas para simplificar la gestión del alojamiento web.
  • Sentora se puede instalar en servidores basados ​​en Linux, UNIX y BSD.
  • En comparación con cPanel, Sentora ofrece una experiencia más sencilla y personalizable.
  • Explora Sentora a través de demostraciones y tutoriales para conocer mejor sus capacidades.

Actualizar tu linux Debian

Actualizar tu Linux Debian

 $ sudo apt update 

$ sudo apt upgrade

$ apt full-upgrade

Elimina paquete que ya no sirven

$ sudo apt autoremove

Revisar cuanto tienen en Memoria RAM

$ free -m

$ Free -g

lunes, 3 de noviembre de 2025

Ollama descargar , Herramientas IA , puedes tener tu propio IA

Instala tu propio IA 

https://ollama.com/

https://ollama.com/download

https://ollama.com/download/ollama-linux-amd64.tgz

Ollama es la forma más sencilla de empezar a trabajar con modelos de lenguaje grandes como gpt-oss, Gemma 3, DeepSeek-R1, Qwen3 y más.

https://www.howto-do.it/install-ollama-on-debian-13/

¿Y si pudieras ejecutar potentes modelos de IA en tu propio ordenador, completamente libre de las limitaciones y los costes de los servicios en la nube? Esta guía te mostrará exactamente cómo lograr ese nivel de independencia.

Me entusiasma guiarte a través del proceso completo para poner en marcha esta innovadora plataforma en tu sistema Debian 13. Esta herramienta permite a desarrolladores y entusiastas de la IA ejecutar grandes modelos de lenguaje localmente, brindándote un control total sobre tus implementaciones.


https://www.howto-do.it/install-ollama-on-debian-13/

Docker para principiantes: Guía práctica de contenedores

 Este tutorial para principiantes cubre los aspectos esenciales de la contenedorización, ayudándote a construir, ejecutar y gestionar contenedores con ejemplos prácticos.

https://www.datacamp.com/es/tutorial/docker-tutorial

Cuando empecé a utilizar Docker, me di cuenta rápidamente de lo potente que era. Imagina configurar tu entorno de desarrollo en minutos en lugar de horas o ejecutar aplicaciones en diferentes máquinas sin el clásico problema de "funciona en mi máquina".

Docker simplifica la creación, distribución y ejecución de aplicaciones empaquetándolas en contenedores ligeros y portátiles. Tanto si eres desarrollador, científico de datos o administrador de sistemas, dominar Docker puede ahorrarte dolores de cabeza y hacer que tus flujos de trabajo sean más eficientes.

En este tutorial, te guiaré a través de los conceptos básicos: instalación de Docker, comprensión de los conceptos clave y ejecución de tu primera aplicación en contenedores. Al final, no sólo sabrás cómo funciona Docker, sino que también tendrás experiencia práctica en su uso, sentando una base sólida para temas más avanzados. ¡Vamos a sumergirnos!

¿Qué es Docker?

Docker es una plataforma de contenedorización de código abierto que simplifica el despliegue de aplicaciones empaquetando el software y sus dependencias en una unidad estandarizada llamada contenedor. A diferencia de las máquinas virtuales tradicionales, los contenedores Docker comparten el núcleo del sistema operativo anfitrión, lo que los hace más eficientes y ligeros.

Los contenedores garantizan que una aplicación se ejecute de la misma forma en entornos de desarrollo, pruebas y producción. Esto reduce los problemas de compatibilidad y mejora la portabilidad entre varias plataformas. Debido a su flexibilidad y escalabilidad, Docker se ha convertido en una herramienta crucial en los flujos de trabajo modernos de DevOps y desarrollo nativo en la nube.

Para instalarlo siga el siguiente link

https://www.datacamp.com/es/tutorial/docker-tutorial




Instalar Docker en Debian: Guía completa de instalación

 https://www.datacamp.com/es/tutorial/install-docker-debian?dc_referre=https%3A%2Fduckduckgo.com%2F

Esta guía cubre cuatro métodos de instalación, desde el repositorio oficial de Docker hasta la instalación manual de paquetes, además de la configuración esencial posterior a la instalación para implementaciones empresariales. Aprenderás a proteger tu entorno Docker, solucionar problemas comunes y mantener una configuración lista para la producción.

Instalar Docker en Debian no debería requerir adivinar qué método no dañará tu sistema.

La mayoría de las guías te ofrecen múltiples opciones de instalación sin explicar cuándo utilizar cada una de ellas. Terminas con paquetes obsoletos del repositorio de Debian o, lo que es peor, con errores de permiso que te impiden acceder a tus propios contenedores. ¿El resultado? Pasas horas solucionando problemas en lugar de implementar aplicaciones.

El ciclo de lanzamiento predecible y la estabilidad sólida como una roca de Debian lo hacen perfecto para implementaciones de Docker en producción. Obtienes un rendimiento constante de los contenedores sin actualizaciones inesperadas del sistema que alteren tu configuración. En teoría, no deberías tener problemas después de la parte más complicada: la instalación.

En este tutorial, te guiaré a través de cuatro métodos de instalación, medidas esenciales de seguridad, configuración del almacenamiento y pasos para solucionar problemas, con el fin de que Docker funcione de forma fiable en Debian.

¿Eres completamente nuevo en DockerEmpieza con los conceptos básicos de Docker antes de seguir con los pasos de instalación. para seguir con el proceso diríjase al link 

 https://www.datacamp.com/es/tutorial/install-docker-debian?dc_referre=https%3A%2Fduckduckgo.com%2F

domingo, 2 de noviembre de 2025

Solucion de dpkg al instalar en linux

 https://notilinux.com/solucion-a-dpkg-was-interrupted-al-instalar-paquetes/

Solución a: “E: dpkg was interrupted” al instalar paquetes en Debian, Ubuntu, Linux Mint y derivados

¿Intentaste instalar o actualizar paquetes en tu sistema Linux y te apareció el siguiente error?

sistema operativo Q4OS basado en linux Debian

 


Bienvenido a Q4OS

Q4OS es un sistema operativo rápido y fácil de usar, orientado al escritorio y basado en Debian Linux. Ofrece un conjunto de utilidades específicas y optimizaciones, con el objetivo de facilitar la creación de un sistema productivo. Esto lo convierte en la opción ideal para quienes buscan un entorno de trabajo personalizado según sus necesidades y preferencias. Por ello, Q4OS es adecuado tanto para usuarios principiantes como para usuarios experimentados.

Puedes descargarlo de aquí https://www.q4os.org/



sábado, 1 de noviembre de 2025

Arma tu propio Servidor de Inteligencia Artificial Privado con Debian 12 + NVIDIA y Docker

 

Arma tu propio Servidor de Inteligencia Artificial Privado con Debian 12 + NVIDIA y Docker

Texto original de https://cnsoluciones.com/articulos/arma-tu-propio-servidor-de-inteligencia-artificial/

Introducción

¿Tienes grandes planes en el ámbito de la Inteligencia Artificial y quieres llevar a cabo tus proyectos por tu cuenta? ¿Deseas desarrollar soluciones personalizadas para tu negocio o clientes sin depender de servicios externos?

Tener un Servidor de IA Privado te brinda la libertad y el control para implementar proyectos de manera individual y segura. Muchas empresas se enfrentan a obstáculos como altos costos de hardware, limitaciones de seguridad o infraestructuras poco flexibles. Con un entorno bien configurado en tu propio servidor, esos problemas desaparecen: puedes enfocarte en el desarrollo de tus modelos y aplicaciones, manteniendo el control total sobre los datos y la infraestructura.

Este artículo muestra, en un recorrido práctico, cómo preparar un servidor con Debian 12 + GPU NVIDIA + Docker, pensado para correr proyectos de IA de forma ordenada, estable y profesional. El objetivo no es solo listar comandos, sino compartir la experiencia real: qué configuraciones aplicar, cómo resolver incompatibilidades y qué buenas prácticas seguir para mantener un entorno limpio y controlado.


Beneficios de tener tu propio Servidor de IA Privado

Antes de entrar en lo técnico, vale la pena repasar por qué conviene montar un entorno propio de IA:

  • Control total: decides qué modelos correr, cómo configurarlos y dónde almacenar los datos.
  • Seguridad: toda la información sensible queda en tu infraestructura, sin depender de terceros.
  • Flexibilidad: puedes probar distintos frameworks, librerías y modelos sin limitaciones externas.
  • Escalabilidad a medida: comienzas con un servidor y luego puedes crecer según la demanda.
  • Rentabilidad: evitas costos recurrentes de servicios en la nube y aprovechas al máximo tu hardware.
  • Buenas prácticas: al usar Docker y GPU integradas, mantienes el host limpio y evitas tener que reinstalar el sistema al probar nuevos proyectos.

Con esta base clara, ahora sí pasamos a la preparación técnica del entorno.


Punto de partida: un servidor en blanco

Me gusta comenzar con un host limpio, sin librerías ni paquetes adicionales que se van acumulando cuando probamos distintos proyectos (como múltiples dependencias de Python, compiladores o toolkits). Ese tipo de pruebas termina “ensuciando” el sistema operativo y, al poco tiempo, obliga a formatear el servidor para empezar de nuevo.

Por eso, como buena práctica, elijo preparar un servidor exclusivo para proyectos de IA en Docker, integrando la GPU mediante el NVIDIA Container Toolkit. De esta forma, todo lo que pruebo queda encapsulado en contenedores, el host se mantiene limpio y puedo desplegar o eliminar proyectos sin comprometer la estabilidad del sistema.

Todo arranca con un servidor recién instalado con Debian 12.
Lo primero que pensé fue: “Quiero tener todo lo necesario para correr mis contenedores de IA sin sufrir con configuraciones incompatibles”.

Eso significaba preparar tres cosas clave:

  1. Drivers NVIDIA
  2. CUDA Toolkit
  3. Docker + soporte para GPU

Verificar la placa de video

Antes de comenzar con la configuración, siempre verifico que el sistema detecte correctamente mi GPU NVIDIA. Para eso utilizo:

lspci | grep "VGA"

La salida en mi caso es:

01:00.0 VGA compatible controller: NVIDIA Corporation GA104 [GeForce RTX 3070] (rev a1)

Con esto confirmo que la tarjeta fue reconocida y puedo continuar con la instalación.


Paso 1: habilitar repositorios no libres en Debian

Como buen Debian, los controladores propietarios no vienen activados por defecto.
Lo primero fue sumar contribnon-free y non-free-firmware a mis repositorios:

apt update
apt install -y software-properties-common
add-apt-repository contrib
add-apt-repository non-free
add-apt-repository non-free-firmware
apt update

Paso 2: fijar versión de los controladores NVIDIA

En la última versión de Debian (12 — Bookworm), los controladores estándar de NVIDIA suelen instalarse solo hasta la versión 535. Sin embargo, al instalar el cuda-keyring, el repositorio oficial de NVIDIA se añade a mis fuentes, lo que hace que el sistema sugiera actualizar a los controladores más recientes (actualmente la versión 570). Aunque esto no representa un problema en sí mismo, puede generar incompatibilidades con herramientas como nvidia-smi, que en mi caso funciona correctamente con la rama 560.

Para evitar este inconveniente, configuro mi sistema para no instalar versiones superiores a 560.35.05-1 creando una política de APT:

tee /etc/apt/preferences.d/controladores-nvidia > /dev/null <<'EOF'
Package: *nvidia*
Pin: version 560.35.05-1
Pin-Priority: 1001

Package: cuda-drivers*
Pin: version 560.35.05-1
Pin-Priority: 1001

Package: libcuda*
Pin: version 560.35.05-1
Pin-Priority: 1001

Package: libxnvctrl*
Pin: version 560.35.05-1
Pin-Priority: 1001

Package: libnv*
Pin: version 560.35.05-1
Pin-Priority: 1001
EOF

Con esto, limito explícitamente todos los paquetes relacionados a NVIDIA a la versión 560.35.05-1 y evito que se actualicen automáticamente a ramas superiores.

Luego actualizo los índices:

apt update

Paso 3: instalando los controladores NVIDIA

Con la política aplicada, instalo directamente la versión deseada:

apt-get install -y nvidia-driver=560.35.05-1
reboot
nvidia-smi

Cuando vi la salida de nvidia-smi mostrando mi GPU lista, supe que estaba en buen camino 🚀.


Paso 4: instalar CUDA Toolkit

El siguiente paso fue traer el toolkit CUDA desde los repositorios oficiales de NVIDIA:

wget https://developer.download.nvidia.com/compute/cuda/repos/debian12/x86_64/cuda-keyring_1.1-1_all.deb
dpkg -i cuda-keyring_1.1-1_all.deb
apt-get update
apt-get -y install cuda-toolkit-12-8
reboot

Esto me permitió compilar, probar y ejecutar código optimizado para GPU.


Paso 5: instalando Docker en Debian 12 (opcional)

En CNSoluciones usamos Docker todos los días, pero quería asegurarme de instalarlo limpio, desde el repositorio oficial:

apt-get remove docker.io podman-docker containerd runc
apt-get update
apt-get install ca-certificates curl gnupg
install -m 0755 -d /etc/apt/keyrings
curl -fsSL https://download.docker.com/linux/debian/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.asc
echo   "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc]   https://download.docker.com/linux/debian   $(. /etc/os-release && echo \"$VERSION_CODENAME\") stable" |   sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
apt-get update
apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin

Y verifiqué con:

docker run hello-world

Paso 6: habilitar el NVIDIA Container Toolkit

El secreto para que Docker use la GPU es el NVIDIA Container Toolkit:

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey |   sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg

curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list |   sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' |   sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

apt-get update
apt-get install -y nvidia-container-toolkit

# Configurar Docker para usar NVIDIA como runtime
test -d /etc/docker || sudo mkdir -p /etc/docker
tee /etc/docker/daemon.json > /dev/null <<'EOF'
{
    "log-driver": "json-file",
    "log-opts": {
        "max-size": "10m"
    },
    "runtimes": {
        "nvidia": {
            "args": [],
            "path": "nvidia-container-runtime"
        }
    }
}
EOF

systemctl restart docker

Paso 7: la prueba final dentro de un contenedor

Llegó el momento de la verdad.
Quería ver si dentro de un contenedor Docker podía usar mi GPU. Así que corrí:

docker run --rm --gpus all nvidia/cuda:11.0.3-base-ubuntu20.04 nvidia-smi

Cuando la salida de nvidia-smi apareció dentro del contenedor, sentí la satisfacción de que todo había valido la pena 🎉.


Paso 8: desplegar Ollama con WebUI

Para completar la preparación del entorno, me gusta desplegar Ollama junto con su WebUI usando Docker Compose. De esta forma puedo probar rápidamente modelos y tener una interfaz simple.

Primero creo el directorio de trabajo:

mkdir -p /opt/ollama
cd /opt/ollama

Luego creo un archivo docker-compose.yml con este contenido:

services:
  ollama:
    container_name: ollama
    hostname: ollama
    image: ollama/ollama:latest
    restart: unless-stopped
    ports:
      - "11434:11434"
    environment:
      - NVIDIA_VISIBLE_DEVICES=all
      - NVIDIA_DRIVER_CAPABILITIES=compute,utility
      - CUDA_VISIBLE_DEVICES=0
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities: [gpu]
    volumes:
      - ./user-data:/root/.ollama
    runtime: nvidia
#    command: ollama serve

  ollama-webui:
    container_name: ollama-webui
    hostname: ollama-webui
    restart: unless-stopped
    image: ghcr.io/open-webui/open-webui:latest
    depends_on:
      - ollama
    ports:
      - 3000:8080
    volumes:
      - ./user-open-webui-data:/app/backend/data
    environment:
      - OLLAMA_URL=http://ollama:11434

Con este archivo listo, simplemente despliego:

docker compose up -d

Y ya tengo corriendo Ollama con acceso vía navegador en http://localhost:3000 🚀.

Como paso adicional, puedo descargar un modelo dentro del contenedor Ollama. Por ejemplo, para bajar y ejecutar llama3**:latest**, utilizo:

docker compose exec ollama ollama run llama3:latest

Validar Ollama por API

Una vez desplegado Ollama y descargado el modelo, valido que la API esté funcionando correctamente.

Primero verifico que el servicio responda:

curl -s http://127.0.0.1:11434/

Salida esperada:

Ollama is running

Luego reviso los modelos instalados:

curl -s http://localhost:11434/api/tags | jq

Ejemplo de salida:

{
  "models": [
    {
      "name": "llama3:latest",
      "model": "llama3:latest",
      "modified_at": "2025-08-17T13:31:09.994616511Z",
      "size": 4661224676,
      "digest": "365c0bd3c000a25d28ddbf732fe1c6add414de7275464c4e4d1c3b5fcb5d8ad1",
      "details": {
        "parent_model": "",
        "format": "gguf",
        "family": "llama",
        "families": [
          "llama"
        ],
        "parameter_size": "8.0B",
        "quantization_level": "Q4_0"
      }
    }
  ]
}

Finalmente, pruebo un chat sencillo:

curl -s http://localhost:11434/api/chat -d '{
  "model": "llama3:latest",
  "messages": [
    {"role": "system", "content": "Eres un asistente útil y respondes en español."},
    {"role": "user", "content": "Hola Llama3, ¿cómo estás?"}
  ]
}' | jq -r 'select(.message.content!=null) | .message.content' | tr -d '
'

Salida esperada:

¡Hola! Estoy funcionando correctamente, gracias por preguntar. Soy una inteligencia artificial entrenada para ayudarte con cualquier pregunta o tarea que tengas. ¿En qué puedo apoyarte hoy?

Conclusión

Así es como preparo mis entornos de IA en Debian 12 con NVIDIA y Docker.
Este camino me permitió tener servidores listos para entrenar modelos de Machine Learning, correr inferencias de IA y mantener una infraestructura estable y portable gracias a los contenedores.

En CNSoluciones trabajamos todos los días en este tipo de desafíos: desde levantar entornos optimizados para IA hasta desplegar sistemas en la nube para nuestros clientes.

Espero que esta información te sirva como guía y te anime a experimentar con tu propia GPU en Docker.
Si querés ayuda para implementar soluciones de IA en tu empresa, podés contactarnos en 👉 cnsoluciones.com.

Debian 13 agregar repositorios

  Dependiendo de cómo instalaste Debian, sí, la configuración del repositorio podría solo contener el ISO de instalación y nada más. Si ese ...