Logo DNCP
¿Qué estás buscando?

Versión 1

Versión 2

Diferencias entre las versiones 1 y 2

Detalles de los productos y/ servicios con las respectivas especificaciones técnicas - CPS

Los productos y/o servicios a ser requeridos cuentan con las siguientes especificaciones técnicas:

 

 

 

 

 

 

DATOS PARA MODELO DE CONTRATO

 

  1. VIGENCIA DEL CONTRATO

 

Este contrato tendrá de vigencia hasta el cumplimiento total de las obligaciones.

 

El plazo de prestación del servicio será por el periodo de:

LOTE 1 = 36 (treinta y seis) meses

 

El sistema de adjudicación será por el Total.

 

  1. PLAZO, LUGAR Y CONDICIONES DE LA PROVISION DE BIENES

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

El plazo máximo de entrega del INFORME DE IMPLEMENTACIÓN es de 120 (cierto veinte) días corridos, contados a partir del día hábil siguiente a la recepción de la Orden de Compra por parte de la CUOC.

 

El plazo máximo de entrega de los INFORME DE REVISIONES TECNICAS PREVENTIVAS es de 30 (treinta) días corridos, contados a partir de la aprobación del cronograma de actividades por parte de la DGIC.

 

El plazo máximo de entrega de los INFORME DE SERVICIO TECNICO O DE URGENCIA es de 30 (treinta) días corridos, contados a partir de la resolución del problema.

 

  1. FORMA DE PAGO

 

Las condiciones de pago al Proveedor en virtud del Contrato serán las siguientes:

 

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

% Contrato

DOCUMENTO REQUERIDO

50% del Contrato. A los 120 días corridos, contados a partir del día hábil siguiente de la recepción de la OC, por parte del proveedor

INFORME DE IMPLEMENTACIÓN: APROBADO.

25% del Contrato. Al segundo año de la vigencia del contrato.

2do. INFORME DE REVISIONES TECNICAS PREVENTIVAS DE SOFTWARE Y HARDWARE: APROBADO

25% del Contrato. A tercer año de la vigencia del Contrato

3er. INFORME DE REVISIONES TECNICAS PREVENTIVAS DE SOFTWARE Y HARDWARE:  APROBADO

 

 

El pago se realizará en base a los productos esperados e informes de trabajos realizados los cuales deberán ser aprobados por la Dirección General de Informática y Comunicaciones para su posterior remisión a la Dirección Administrativa para la prosecución de los trámites administrativos.

 

  1. ADMINISTRACIÓN DEL CONTRATO

 

El encargado de realizar la conformidad de los bienes y servicios a ser proveídos es el Departamento de Infraestructura de TI (Teléf.: +595 21 492455 email: diti@hacienda.gov.py).

 

La conformidad final será aprobada por la Coordinación de Operaciones de TIC y la DGIC.

 

ESPECIFICACIONES TÉCNICAS Y SUMINISTROS REQUERIDOS

 

  1. LISTA DE BIENES

 

LOTE/ITEM

DESCRIPCIÓN

UNIDAD DE MEDIDA

PRESENTACIÓN

CANTIDAD

AMPLIACION DE SOLUCIÓN HIPERCONVERGENTE PARA SERVICIOS DE LA DGIC

1.1

SOLUCIÓN HIPERCONVERGENTE PARA ACTUALIZACIÓN DE CLUSTER NUTANIX G5

UNIDAD

UNIDAD

1

1.2

SOLUCIÓN HIPERCONVERGENTE PARA REPLICACIÓN DE CLUSTER MICROSOFT

UNIDAD

UNIDAD

1

1.3

AMPLIACIÓN DE CLUSTER NUTANIX SITIO DE CONTINGENCIA

UNIDAD

UNIDAD

1

 

  1. DISEÑO LOGICO DE LA SOLUCIÓN

OBSERVACIÓN: LAS IMAGENES CORRESPONDIENTES A ESTE PUNTO, SE ENCUENTRAN COMO ACLARACIÓN, DADO QUE EL PLIEGO ELECTRÓNICO NO PERMITE INSERTAR IMAGENES.

 

  1. INTRODUCCIÓN

 

La Dirección General de Informática y Comunicaciones (DGIC) dependiente de la Subsecretaría de Estado de Administración Financiera (SSEAF) del Ministerio de Hacienda se encuentra encarando en la actualidad la actualización tecnológica del equipamiento de Servidores Hyperconvergentes para soportar los nuevos requerimientos entre los que podemos citar la Reingeniería del Sistema Integrado de Administración de Recursos del Estado (SIARE), en reemplazo del equipamiento actualmente en producción el cual ya fue declarado en obsolescencia por el fabricante de los mismos.

 

  1. ANTECEDENTES Y JUSTIFICACIÓN

 

La Dirección General de Informática y de Comunicaciones, en el marco de sus funciones definidas por el Articulo 81 de la Ley N° 1535/99 De Administración Financiera del Estado adquirió una infraestructura Hyperconvergente (HCI) en diferentes llamados desde el año 2017 para el acceso eficiente a los sistemas y subsistemas del SIARE que administra en su Data Center y que disponibiliza a los diferentes Organismos y Entidades del Estado (OEE) mediante la Red Metropolitana del Sector Público.

 

El equipamiento actual fue adquirido en varios procesos licitatorios desde el año 2017 y renovándose en su garantía hasta el año 2022 cuando los mismos fueron declarados EoL y EoS (Fin de vida útil y soporte) por parte de la Marca NUTANIX como se puede observar en la página del fabricante: https://portal.nutanix.com/page/documents/eol/list?%20type=announcement.

 

  1. OBJETIVOS

 

El Objetivo principal de este proyecto es complementar el equipamiento actual de la solución de hyperconvergencia para el Data Center principal de la DGIC y de contingencia del Ministerio de Hacienda basado en un diseño Multi-Pod ó Data Center extendido distribuyendo equipamiento crítico en ambos Data Center en una configuración de Alta Disponibilidad (HA) para el 100% de los servicios.  De la misma forma es indispensable fortalecer el equipamiento actual de la solución Bases de Datos del SIARE para el Data Center principal de la DGIC y de contingencia del Ministerio de Hacienda basado en un diseño Activo-Pasivo.  En este contexto se requiere del soporte para brindar soluciones inmediatas ante posibles problemas y garantizar la disponibilidad en un 99,9% para las 229 entidades.

 

El segundo objetivo de este proyecto es alinear los equipos, licencias y servicios a una hoja de ruta que incluya tecnologías que permitan múltiples dominios de servicios y funcionalidades de IaaS (Infraestructura como servicio) a través del uso de tecnologías de virtualización de networking, software de automatización y herramientas de orquestación que permitan correr los servicios independientemente de dónde estén siendo ejecutados (Datacenter 1 o 2 o una nube pública/híbrida/privada) manteniendo las mismas políticas tanto de funcionamiento, seguridad y calidad de servicio.

 

En resumen, proporcionar la infraestructura tecnológica al DATA CENTER de la DGIC para soportar los nuevos requerimientos que demanda el proyecto de reingeniería del SIARE con la capacidad de soportar toda la carga que demanda las OEE, Gobernaciones y Municipalidades que se conectan al Sistema Integrado de Administración de Recursos del Estado (SIARE).

 

  1. JUSTIFICATIVO PARA LLAMADO

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC                                                                                                                                             

 

Dadas las características de los equipos adquiridos en los procesos para la implementación de la solución hiperconvergente de la marca NUTANIX para el Data Center en el Sitio Principal como en el de Contingencia se tiene previsto ampliar esta tecnología para lograr una Alta Disponibilidad (HA) de servicios. En este sentido, y a fin de seguir manteniendo una infraestructura y arquitectura estándar se requiere que la ampliación de la solución, minimizando de esta forma riesgos de incompatibilidad o problemas de integración entre distintos fabricantes. La DGIC considera que esta etapa de ampliación debe ser ejecutada en el marco de dependencia tecnológica por los siguientes motivos:

 

  1. El 100% del equipamiento de la plataforma hyperconvergente instalada (1ra etapa y 2da etapa del Proyecto) en el Data Center Principal de la DGIC y Sitio de Contingencia son de la marca NUTANIX. La implementación lógica de esta ampliación requiere interconectar e interactuar bajos los mismos criterios de configuración, tipo de soporte y garantías hoy operativos.

 

  1. Los equipos requeridos deben interactuar de forma transparente con los existentes con los mismos criterios de resiliencia y eficiencia; por lo que es indispensable adquirir equipos homologados por el fabricante para poder conformar los esquemas de Alta disponibilidad en toda la arquitectura de ambos Data Center de la DGIC (Sitio Principal y Contingencia).

 

  1. Es necesario garantizar la continuidad de los servicios durante el proceso de despliegue e implementación, por lo cual las tecnologías y protocolos deben ser los mismos.

 

  1. LA DGIC posee un plantel de técnicos profesionales estable y con conocimiento técnico adquirido a través de capacitaciones, entrenamientos y constante actualización en el manejo y administración de los equipos NUTANIX. Este Know How hace posible que la DGIC gestione de forma autónoma acciones de administración y monitoreo de la solución hoy implementada.

 

  1. Entendemos que se podrá realizar una licitación pública competitiva ya que en nuestro país, existen representante directos de la marca de referencia y varios integradores con técnicos certificados permanentemente en su staff, lo que finalmente garantiza la continuidad de los servicios de post venta local, y la existencia suficiente de soporte calificado y certificado directamente por el fabricante, así como disponibilidad de partes para minimizar en gran medida, posibles puntos críticos de falla que puedan afectar los servicios críticos que ofrece la DGIC.

 

Como antecedente se detallan los procesos en los cuales se adquirió la solución NUNATIX, la extensión de garantía y soporte de la misma hasta el año 2022:

 

  • Contrato MH N° 139/17 - LPN N° 15/17 - ID N° 328.546 - Actualización de Infraestructura para Reingeniería del SIARE 1ra Etapa
    • Solución de cómputo y almacenamiento Hyperconvergente para la ampliación del ambiente de virtualización del SIARE
  • Contrato MH N° 096/19 - LPN SBE N° 13/19 - ID 361.345 - Actualización de Infraestructura para Reingeniería del SIARE 2da Etapa
    • Ampliación de Solución Hyperconvergente de Servicios
    • Ampliación de Solución Hyperconvergente para Directorio Activo

 

  1. ALCANCE DE LOS SERVICIOS

 

    1. Vigencia del Contrato:                 Hasta el cumplimiento total de las obligaciones

 

    1. Sistema de adjudicación:           Será por el LOTE.

 

    1. Tipo de Servicio:                           PROVISION DE EQUIPAMIENTO.

 

    1. Plazo de prestación:                     Será por el periodo de 36 (treinta y seis) meses LOTE 1

 

    1. Nivel de Soporte:                          LOTE 1

Del fabricante tipo 24X7 por un periodo de 36 meses

Del oferente tipo 24X7 por un periodo de 36 meses

 

    1. Tipo y Alcance de la Garantía:                

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

La Garantía Extendida debe ser del Fabricante y Soporte técnico del Oferente. La garantía debe incluir el soporte técnico para atención de Hardware y Software, Mano de Obra y Repuestos (cualquier daño de componentes de los equipos deberá ser cambiado) incluyendo traslado de los equipos de la oficina del cliente al proveedor y viceversa a cargo del proveedor.

 

La garantía debe incluir el servicio completo de mantenimiento preventivo: suministro de nuevas versiones (releases) y reparaciones (generalmente denominadas como patches, temporary fixes, APARs, Bugs, etc.). Estos mantenimientos se realizarán cada 12 meses durante la vigencia del contrato

    1. En caso de necesidad la posibilidad de acceso directo al Centro Asistencial de la marca con intermediación para resolución o apertura de casos.
    2. Se deberá proveer un usuario para acceder al sistema de apertura y seguimiento de casos del Oferente/fabricante.

 

    1. Periodo de Valides de la Garantía de los bienes:

Será de 36 meses a partir de la recepción de la solución por parte de la DGIC (LOTE 1).

 

    1. Tiempo de funcionamiento de los bienes:

Será de 36 meses a partir de la recepción de la solución por parte de la DGIC (LOTE 1).

 

    1. Plazo de reposición de bienes:  Reemplazo avanzado de hardware en caso de fallas, será como máximo de 24 horas, a partir de la fecha y hora de solicitud. En caso que el reemplazo del componente dañado implique la indisponibilidad del equipo por más de 24 horas, el proveedor suministrará otro equipo mientras dure la recepción del nuevo componente del mismo

 

El proveedor garantiza que todos los bienes suministrados están libres de defectos derivados de actos y omisiones que este hubiera incurrido, o derivados del diseño, materiales o manufactura, durante el uso normal de los bienes en las condiciones que imperen en la República del Paraguay.

 

La Contratante comunicará al proveedor la naturaleza de los defectos y proporcionará toda evidencia disponible, inmediatamente después de haberlos descubierto. La contratante otorgará al proveedor facilidades razonables para inspeccionar tales defectos.

 

Tan pronto reciba esta comunicación, y dentro del plazo establecido en este apartado, deberá reparar o reemplazar los bienes defectuosos, o sus partes sin ningún costo para la contratante.

 

    1. Soporte Técnico in-situ: Asistencia técnica in-situ a pedido de la contratante, atención a las alertas y a los reclamos con un tiempo de respuesta no mayor a una (2) horas después de comunicado el inconveniente.

 

    1. Lugar de trabajo:

 

Ministerio de Hacienda Dirección General de Informática y Comunicaciones.

Ministerio de Hacienda Data Center de Contingencia.

 

    1. Horario del servicio: El Servicio deberá estar enmarcado dentro de los siguientes horarios: 
  • Ordinario: período normal de actividades de lunes a viernes de 07:30 hs. a 17:00 hs.
  • Extraordinario: a solicitud de la Institución (los días sábados, domingos y feriados o dentro de los días laborales ordinarios, pero fuera del periodo normal de actividades para las implementaciones que involucren corte en el servicio). 

 

  1. CONDICIONES GENERALES DEL PROYECTO

 

    1. El Ministerio de Hacienda nombrará uno o varios supervisores del LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC. Estos técnicos tendrán la función de designar y priorizar los trabajos a realizar, aprobar o rechazar lo realizado, informes realizados por la empresa contratada, así como también realizar los informes del cumplimiento de los servicios realizados.

 

    1. En caso que los trabajos previstos y que por su naturaleza demanden que el personal técnico deba realizar las tareas fuera de las oficinas de la DGIC a fin de garantizar el normal funcionamiento de la infraestructura de comunicaciones, la Contratada deberá prever la movilidad tanto de sus técnicos como de los técnicos de la DGIC de fungen como contraparte.

 

    1. La contratada está obligada al uso de los formularios internos de la Institución para los servicios contratados. Pudiendo esta utilizar además sus propios formularios (internos).

 

    1. La solución ofertada debe ser plenamente compatible con la solución NUTANIX existente en el sitio de Principal de la Dirección General de Informática y Comunicaciones del Ministerio de Hacienda. El nuevo clúster deberá servir para la replicación de las máquinas virtuales del sitio principal al sitio de contingencia y establecer de esta manera la alta disponibilidad de toda la plataforma.

 

    1. El Oferente deberá proveer todas las licencias de VMware necesarias para que el clúster se encuentre debidamente cubierto y pueda operar sin inconvenientes legales. El clúster NUTANIX G5 cuenta actualmente con 6 licencias de VMware vSphere Entreprise Plus con soporte activo. Las mismas serán transferidas al nuevo cluster.

 

El soporte de la marca de dichas licencias debe ser extendidas al plazo de garantía y soporte solicitados en esta licitación.  También deben ser adquiridas nuevas licencias de VMware vSphere Enterprise Plus para cubrir la cantidad total de procesadores del cluster.

 

El Oferente deberá también extender el periodo de soporte de VMware vCenter Server existente y ajustarlo al plazo de garantía y soporte solicitados en esta licitación

 

    1. La falta de algún elemento (hardware, software   y/o cualquier componente o partes) necesario para el funcionamiento de los bienes, tanto individualmente, en operación conjunta, para los fines funcionales previstos por el Contratante, originado por cualquier tipo de interpretación de las especificaciones técnicas, obligará al oferente a proveerlo de inmediato y sin cargo adicional para el Contratante.

 

Las adecuaciones que fueran necesarias realizar para dar cumplimiento a lo establecido precedentemente serán realizadas por el Contratante en coordinación con el Oferente y garantizando en todos los casos la preservación de la funcionalidad requerida.

 

    1. Todos los equipos a proveer deberán ser nuevos, sin uso y en perfecto estado de funcionamiento. Todo bien a suministrar deberá pertenecer a la línea actual de productos del fabricante, y ser el más reciente estable en dicha línea.

 

    1. La entrega de cualquier Software significará la entrega de las Licencias de Uso del Software, emitidas a nombre del Contratante como mínimo durante el periodo que dure la garantía.

 

  1. SERVICIO DE IMPLEMENTACIÓN

 

    1. El servicio contemplará todos los suministros, actividades de montaje, instalación en general, configuración y puesta en funcionamiento de la solución ofertada en el gabinete designado por la Dirección General de Informática y Comunicaciones (DGIC) del Ministerio de Hacienda. La instalación deberá ser realizada con la presencia de técnicos de la Dirección General de Informática y Comunicaciones (DGIC) del Ministerio de Hacienda.

 

    1. Instalación de la Solución: Contemplará todos los suministros, actividades de montaje, instalación en general, configuración y puesta en funcionamiento de la solución en las siguientes entidades y dependencias del MH:
  1. Ministerio de Hacienda Dirección General de Informática y Comunicaciones.
  2. Ministerio de Hacienda Data Center de Contingencia

 

  1. ACTIVIDADES ESPECIFICAS DEL PROYECTO

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

    1. Garantía de Hardware y Software: Para los casos en que los equipos por la naturaleza de la avería y/o por recomendación del fabricante deberán están contemplados el cambio de partes parcial (en el caso de los equipos modulares) o total de los equipos descritos en las especificaciones técnicas detalladas en el PUNTO 15 ESPECIFICACIONES TECNICAS durante un periodo de 36 (treinta y seis) meses, que contemplará el soporte y subscripción de lo siguiente:
  • Remplazo avanzado de hardware en caso de fallas en 4 horas, a partir de la fecha y hora de la solicitud.
  • Traslado de los equipos de la oficina del cliente al proveedor y viceversa a cargo del oferente.
  • Firmware & General Updates.
  • Enhanced Support.
  • Mano de Obra.
  • Asistencia técnica telefónica inmediata. Línea telefónica ilimitada (24 horas al día) con acceso a especialistas expertos en redes.
  • Tareas técnicas de revisión preventiva que el proveedor deberá realizar en los equipos debe incluir el servicio completo preventivo anual de Hardware: limpieza y verificación anual de los equipos, y semestral de Software: suministro de nuevas versiones (releases) y patches (temporary fixes, APARs, Bugs, etc.) semestral.

 

    1. Soporte Técnico in-situ: Asistencia técnica in-situ a pedido de la contratante, la cual debe cumplir los siguientes requisitos:
  • Atención a las alertas y a los reclamos de la contraparte designada con un tiempo de respuesta no mayor a una (2) horas después de comunicado el inconveniente al proveedor.
  • Disponibilidad del servicio debe ser de 7 x 24 durante el periodo de la garantía.

 

  1. ACUERDO DE CONFIDENCIALIDAD

 

    1. La Empresa Contratada no podrá utilizar, disponer, copiar, transmitir, divulgar, difundir a ninguna otra institución o persona, ni antes, ni durante, ni después de la prestación del servicio, toda la información recuperada en este proceso, debiendo ser considerada la misma como de estricta y absoluta confidencialidad. Cualquier tipo de comunicación o difusión de esta información, independientemente de su formato, deberá ser efectuada a través de la CONTRATANTE, siendo ella la única parte que podrá autorizar por escrito cualquier tipo de difusión.

 

  1. RESULTADOS Y PRODUCTOS ESPERADOS

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

    1. Provisión, Instalación e Implementación de equipamiento, componentes y licencias en el Data Center de la DGIC y Sitio de Contingencia.
    2. Subscripción de licencias a nombre de la Dirección General de Informática y Comunicaciones del equipamiento incluido en el presente llamado.
    3. Informe de trabajos realizados y documentación complementaria aprobado según los descrito en el punto 14.1 INFORME DE IMPLEMENTACIÓN
    4. Asistencia y revisiones técnicas in situ realizadas.
    5. Informe de Asistencia y revisiones técnicas aprobado según los descrito en el punto 14.2 INFORME DE REVISIONES TECNICAS PREVENTIVAS DE SOFTWARE Y HARDWARE

 

  1. CALENDARIO E HITOS DEL PROYECTO

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

Actividades e Informes

Mes

04

06

12

18

24

30

36

Implementación de Solución (CRITICO)

Provisión, Instalación y pruebas de funcionamiento, que será evidenciado con los informes requeridos en el Punto 14.1 INFORME DE IMPLEMENTACION

 

 

 

 

 

 

 

Servicio semestral y anual de revisiones técnicas preventivas

Servicio que será evidenciado con los informes requeridos en el Punto 14.2 INFORME DE REVISIONES TECNICAS PREVENTIVAS

 

SW

 

SW HW

SW

SW HW

SW

SW HW

Servicio Técnico o de Urgencia in-situ

Servicio on-demand que será evidenciado con los informes requeridos en el Punto 14.3 INFORME DE SERVICIO TÉCNICO O DE URGENCIA

 

Durante la vigencia del Contrato

OBSERVACIÓN: Las actividades denominadas (CRÍTICO) y los de servicio anual de revisiones preventivas involucran pagos conforme al PLAZO DE ENTREGA DE TRABAJOS E INFORMES y MODALIDAD DE PAGO

Vigencia de Servicios Conexos

Garantía del fabricante tipo 24x7

Soporte técnico del oferente tipo 24X7

Durante la vigencia del Contrato

                 

 

 

  1. INFORMES

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

    1. INFORME DE IMPLEMENTACION: Este documento deberá incluir los siguientes puntos:

 

  1. Provisión, Instalación e Implementación de equipamiento, componentes y licencias en el Data Center de la DGIC y Sitio de Contingencia.
  2. Documentación relativa a la garantía por 36 meses del equipamiento.
  3. Carta compromiso de revisiones técnicas anuales para el hardware y semestrales para el software del total de los equipos descritos en el PUNTO 15. ESPECIFICACIONES TÉCNICAS
  4. Usuario registrado para soporte web.

 

A manera de guía se detallan los anexos que debe incluir el informe para el ítem 1:

  1. Descripción de la Ingeniería de la Red.
  2. Planos de vista general de la Red y de los equipos a utilizar con su identificación.
  3. Planos de ubicación de los equipos de Red.
  4. Diagrama de conexión de los Equipos de Comunicación, Físico y Lógico, describiendo el Protocolo con que se conectan (L2, L3, etc.), y los IP´s involucrados de los Equipos, red, etc (IP planning).
  5. Otros planos que sean necesarios para la administración de la solución.

 

    1. INFORME DE REVISIONES TECNICAS PREVENTIVAS DE SOFTWARE Y HARDWARE: Este informe deberá incluir los siguientes puntos:

 

  1. Revisión Técnica Preventiva de Software y/o Hardware.
  2. Implementación de ajustes de acuerdo a recomendaciones.
  3. Revisiones y pruebas de restauración de Backup.
  4. Recomendaciones sobre mejores prácticas en cuanto a configuraciones, nuevas funcionalidades y hardware si las hubiera.

 

    1. INFORME DE SERVICIO TECNICO O DE URGENCIA: Este informe deberá incluir los siguientes puntos:
  1. Detalle de las actividades o trabajos de urgencia de Hardware y/o software.
  2. Recomendaciones sobre mejores prácticas en cuanto a configuraciones, nuevas funcionalidades y hardware si las hubiera.

 

ESPECIFICACIONES TÉCNICAS

 

LOTE 1 AMPLIACION DE SOLUCIÓN HIPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

ITEM 1 SOLUCIÓN HIPERCONVERGENTE PARA ACTUALIZACIÓN DE CLUSTER NUTANIX G5

 

Nombre del Bien o Servicio Conexo

Descripción Técnica

Mínimo Exigido

Cumple /
No Cumple

 

1

CANTIDAD

1

EXIGIDO

 

 

2

MARCA

NUTANIX

EXIGIDO

 

 

3

MODELO

NX-8235N-G8-4310CM

EXIGIDO

 

 

4

FACTOR DE FORMA

Chasis para Rack standard compatible con EIA-310D

EXIGIDO

 

 

5

TAMAÑO MÁXIMO DE LA SOLUCIÓN

hasta 4U

EXIGIDO

 

 

6

ARQUITECTURA DE PROCESADORES

Tipo x86 64 bits.

EXIGIDO

 

 

7

CAPACIDAD DE PROCESAMIENTO

Mínimo 96 núcleos de 2.1 GHz con memoria caché de 18 MB o superior en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

8

CAPACIDAD DE MEMORIA

Mínimo de 4096 GB, 3200MHZ, DDR4 en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

9

CAPACIDAD DE ALMACENAMIENTO

Mínimo de 30 TB RAW en discos de estado sólido (SSD) y 192 TB RAW en discos mecánicos (HDD)en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

10

ADMINISTRACIÓN

El marco de administración debe proporcionar una interfaz de usuario gráfica intuitiva. Toda la información se debe organizar y presentar a través de áreas bien definidas con el propósito de lograr un acceso sencillo a los datos operativos. Debe ofrecer la capacidad de definir y administrar una infraestructura convergente completa desde cualquier dispositivo.

EXIGIDO

 

 

11

CONEXIÓN LAN

Módulos de interconexión Ethernet con 4 puertos 10GbE/25GbE con módulos SFP+ por cada servidor/nodo/host.

 

Se deberá contar con módulos de interconexión LAN internos al chasis, cada servidor/nodo/host con 4 puertos externos activados (SFP+) de corta o larga distancia de 10Gbps o superior.

 

La solución debe poder funcionar con cualquier switch Ethernet 10GbE/25GbE.
Todos los cables necesarios para la conexión LAN, deberán ser proveídos.

EXIGIDO

 

 

12

VENTILADORES Y FUENTES DE ALIMENTACIÓN

El sistema de ventilación (coolers) y el sistema de alimentación provisto, deberán estar preparados para soportar la instalación completa del chasis con sus bahías completas, sin producir una degradación general del sistema. Las fuentes de alimentación deberán ser redundantes.

EXIGIDO

 

 

13

ALIMENTACIÓN ELÉCTRICA

La alimentación Eléctrica de los servidores/nodos/hosts deberá ser de tipo Redundante (1+1), pudiendo ser compartida por 2 servidores/nodos/hosts, siempre que se mantenga la redundancia.

220 VOLTIOS CORRIENTE ALTERNA MONOFÁSICO

 

 

Frecuencia en Hertz

50/60

 

 

14

HERRAMIENTA / CONSOLA DE GESTIÓN O ADMINISTRACIÓN

• La interfaz de administración deber ser accedida mediante un browser y estar basada en HTML5.

• Proveer una única vista para todo el entorno manteniendo múltiples puntos de acceso.
• La consola de Administración deberá ejecutarse sobre los mismos servidores/nodos/hosts del Clúster que administra, aprovechando la tolerancia a fallos del mismo (Ej. La consola debe permanecer disponible ante la falla de cualquiera de los servidores/nodos/hosts).
• Proveer accesos alternativos basados en SSH y/o interfaces seriales remotas estilo IPMI.
• Contener autenticación LDAP, Active Directory, CAC Prompt y certificados firmados por SSL.

• Contemplar integración mediante el uso de REST API a otras soluciones de administración, a fin de facilitar la integración con ambientes de monitoreo actuales.
• Tener la capacidad de facilitar una consola gráfica, que permita visualizar los recursos utilizados por las máquinas virtuales (VM) independientemente del tipo de hipervisor.

EXIGIDO

 

 

15

ALMACENAMIENTO

La solución debe contar con un sistema de almacenamiento distribuido definida por software y proveer las siguientes funcionalidades:
• Cada servidor/nodo/host, deberá contar con su propia controladora de almacenamiento.
• Esquema de capas en forma automática (auto-tiering) entre los diferentes niveles, memoria, disco de estado sólido (SSD) y discos mecánicos (HDD) en tiempo real.
• Deduplicación en la ingesta de información, en los discos de estado sólido (SSD) y en los discos mecánicos (HDD).
• Compresión tanto en línea y en reposo.
• La solución debe soportar Erasure Coding, para mejor aprovechamiento del almacenamiento.
• Snapshots basados en punteros.
• Sistemas de clones de máquinas virtuales.
• Capacidad de usar Erasure Coding para poder hacer uso eficiente del espacio en discos mecánicos (HDD)
• Debe existir un sistema que permita que a lo largo del tiempo los datos más accedidos por una VM corriendo en cualquiera de los servidores/nodos/hosts, tengan siempre una copia en el almacenamiento del servidor/nodo/host local, de manera que la lectura pueda realizarse a velocidad local en la mayoría de los accesos. Este mecanismo debe converger y actualizarse de manera automática si la VM es movida/trasladada a otro servidor/nodo/host.
• Thin Provisioning tanto para máquinas virtuales, como a nivel de contenedor/datastore.
• Capacidad de réplica en forma sincrónica o asincrónica.
• La réplica de los datos debe poder configurarse con granularidad por Máquina Virtual (VM)
• El cluster debe poder replicar contra otro/s Cluster/s en el sitio local o en sitios remotos de manera sencilla. El oferente deberá validar los requerimientos e incluir todos los componentes y licencias que sean necesarios para que la réplica de datos entre clusters sea posible.
Adicionalmente, la solución de réplica debe de permitir replicar máquinas virtuales entre hipervisores diferentes para poder facilitar la migración de un hipervisor a otro.
El almacenamiento debe estar diseñado especialmente para ambientes virtualizados. Debe ser compatible mínimamente con Vmware, Hyper-V y AHV de Nutanix.

La arquitectura de almacenamiento debe permitir que cada servidor/nodo/host vaya integrado con una controladora para gestionar los recursos de almacenamiento en un cluster, y para todas las máquinas virtuales.  Estas controladoras deben comunicarse entre sí, permitiendo gestionar el acceso desde múltiples servidores/nodos/hosts a los datos replicados.
La solución de almacenamiento no requerirá de switches de Fibre Channel ni FCoE para su funcionamiento. Solamente utilizara IP sobre Ethernet estándar (no deberá ser obligatorio configurar características específicas como Jumbo-Frames, ni otras características especiales para lograr que el Cluster opere correctamente).
Deberá tener la capacidad de distribuir los datos adentro del cluster y adicionalmente poder replicarlos internamente, para poder asegurar su disponibilidad. El factor de réplica puede ser configurado en nodo 2 ó 3, dependiendo de la cantidad de nodos instalados.
La solución mínimamente deberá tener la capacidad de realizar respaldos a AWS (Amazon Web Services) y Microsoft Azure.

EXIGIDO

 

 
 

16

ESCALABILIDAD

Escalabilidad Proveer un crecimiento lineal, estable y predecible en su rendimiento a medida que se agreguen servidores/nodos/hosts. Soportar un crecimiento ilimitado en servidores/nodos/hosts, que incrementen la capacidad de procesamiento, memoria y almacenamiento. El clúster una vez establecido debe ser capaz de crecer de a un servidor/nodo/host por vez.
Deberá soportar crecimiento lineal con servidores/nodos/hosts heterogéneos, o de diferentes modelos para maximizar recursos de procesamiento, memoria o almacenamiento según se requiera.
Proveer la factibilidad de crecimientos modulares evitando así el sobredimensionamiento del proyecto.
El crecimiento tiene que ser en forma granular de hasta un servidor/nodo/host por vez incrementando los recursos globales de procesamiento, memoria, y almacenamiento en forma simultánea de todo el cluster y en diferentes proporciones, para poder acomodarse a los diferentes requerimientos.

EXIGIDO

 

 

17

TIPOS DE NODOS

Se debe poder integrar servidores/nodos/hosts con diferentes características que le permitan adaptarse a los requerimientos de cada una de las aplicaciones y formando un clúster mixto.
Los tipos de nodos esperados son:
•Intensivos en CPU/Memoria.
•Intensivos en Almacenamiento.
•Nodos solamente con discos SSD.

EXIGIDO

 

 

18

ALTA DISPONIBILIDAD

La infraestructura de Cómputo y Almacenamiento deberá ser distribuida y completamente definida por software, armando un clúster con las siguientes características:
• Filesystem con capacidad de recuperación ante la falla de un disco o de un servidor/nodo/host completo que forma parte de la solución.

• La protección de los datos deberá ser realizando múltiples copias de los datos en los discos pertenecientes a más de un servidor/nodo/host, de manera de garantizar que los datos sigan disponibles aún luego de la falla de algún componente o incluso la falla de un servidor/nodo/host completo (tolerancia a fallos). Esta protección de datos deberá realizarse entre los múltiples servidores/nodo/host que componen el Clúster, de manera distribuida (no estando limitado a un esquema 1+1)
o En caso de una falla, la solución basada en Software debe actuar de manera automática creando nuevas copias múltiples de los datos, de manera de mantener el nivel de protección hasta tanto se reemplace el componente que haya fallado (Auto-Saneamiento de la solución)

EXIGIDO

 

 

19

ACCESORIOS

Todos los accesorios requeridos para entregar el equipo en perfecto estado de operación (Módulos, software, patch cords, power cord, rackmount kit, etc.)

EXIGIDO

 

 

 

LOTE 1 - AMPLIACION DE SOLUCIÓN HIPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

ITEM 2 SOLUCIÓN HIPERCONVERGENTE PARA REPLICACIÓN DE CLUSTER MICROSOFT

 

Nombre del Bien o Servicio Conexo

Descripción Técnica

Mínimo Exigido

Cumple /
No Cumple

 

1

CANTIDAD

1

EXIGIDO

 

 

2

MARCA

NUTANIX

EXIGIDO

 

 

3

MODELO

NX-1365N-G8-4309YCM

EXIGIDO

 

 

4

FACTOR DE FORMA

Chasis para Rack standard compatible con EIA-310D

EXIGIDO

 

 

5

TAMAÑO MÁXIMO DE LA SOLUCIÓN

hasta 2U

EXIGIDO

 

 

6

ARQUITECTURA DE PROCESADORES

Tipo x86 64 bits.

EXIGIDO

 

 

7

CAPACIDAD DE PROCESAMIENTO

Mínimo 48 núcleos de 2.8 GHz con memoria caché de 12 MB o superior en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

8

CAPACIDAD DE MEMORIA

Mínimo de 768 GB 3200MHz DDR4 en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

9

CAPACIDAD DE ALMACENAMIENTO

Mínimo de 5,76 TB RAW en discos de estado sólido (SSD) y 36 TB RAW en discos HDD en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

10

ADMINISTRACIÓN

El marco de administración debe proporcionar una interfaz de usuario gráfica intuitiva. Toda la información se debe organizar y presentar a través de áreas bien definidas con el propósito de lograr un acceso sencillo a los datos operativos. Debe ofrecer la capacidad de definir y administrar una infraestructura convergente completa desde cualquier dispositivo.

EXIGIDO

 

 

11

CONEXIÓN LAN

Módulos de interconexión Ethernet con 4 puertos 10GbE/25GbE con módulos SFP+ por cada servidor/nodo/host.
Se deberá contar con módulos de interconexión LAN internos al chasis, cada servidor/nodo/host con 4 puertos externos activados (SFP+) de corta o larga distancia de 10Gbps/25Gbps o superior.
La solución debe poder funcionar con cualquier switch Ethernet 10GbE/25GbE.
Todos los cables necesarios para la conexión LAN, deberán ser proveídos.

EXIGIDO

 

 

12

VENTILADORES Y FUENTES DE ALIMENTACIÓN

El sistema de ventilación (coolers) y el sistema de alimentación provisto, deberán estar preparados para soportar la instalación completa del chasis con sus bahías completas, sin producir una degradación general del sistema. Las fuentes de alimentación deberán ser redundantes.

EXIGIDO

 

 

13

ALIMENTACIÓN ELÉCTRICA

La alimentación Eléctrica de los servidores/nodos/hosts deberá ser de tipo Redundante (1+1), pudiendo ser compartida por 4 servidores/nodos/hosts, siempre que se mantenga la redundancia.

220 VOLTIOS CORRIENTE ALTERNA MONOFÁSICO

 

 

Frecuencia en Hertz

50/60

 

 

14

HERRAMIENTA / CONSOLA DE GESTIÓN O ADMINISTRACIÓN

• La interfaz de administración deber ser accedida mediante un browser y estar basada en HTML5.

• Proveer una única vista para todo el entorno manteniendo múltiples puntos de acceso.
• La consola de Administración deberá ejecutarse sobre los mismos servidores/nodos/hosts del Clúster que administra, aprovechando la tolerancia a fallos del mismo (Ej. La consola debe permanecer disponible ante la falla de cualquiera de los servidores/nodos/hosts).
• Proveer accesos alternativos basados en SSH y/o interfaces seriales remotas estilo IPMI.
• Contener autenticación LDAP, Active Directory, CAC Prompt y certificados firmados por SSL.

• Contemplar integración mediante el uso de REST API a otras soluciones de administración, a fin de facilitar la integración con ambientes de monitoreo actuales.
• Tener la capacidad de facilitar una consola gráfica, que permita visualizar los recursos utilizados por las máquinas virtuales (VM) independientemente del tipo de hipervisor.

EXIGIDO

 

 

15

ALMACENAMIENTO

La solución debe contar con un sistema de almacenamiento distribuido definida por software y proveer las siguientes funcionalidades:
• Cada servidor/nodo/host, deberá contar con su propia controladora de almacenamiento.
• Esquema de capas en forma automática (auto-tiering) entre los diferentes niveles, memoria, disco de estado sólido (SSD) y discos mecánicos (HDD) en tiempo real.
•Deduplicación en la ingesta de información, en los discos de estado sólido (SSD) y en los discos mecánicos (HDD).
• Compresión tanto en línea y en reposo.
• La solución debe soportar Erasure Coding, para mejor aprovechamiento del almacenamiento.
•Snapshots basados en punteros.
• Sistemas de clones de máquinas virtuales.
• Capacidad de usar Erasure Coding para poder hacer uso eficiente del espacio en discos mecánicos (HDD)

• Debe existir un sistema que permita que a lo largo del tiempo los datos más accedidos por una VM corriendo en cualquiera de los servidores/nodos/hosts, tengan siempre una copia en el almacenamiento del servidor/nodo/host local, de manera que la lectura pueda realizarse a velocidad local en la mayoría de los accesos. Este mecanismo debe converger y actualizarse de manera automática si la VM es movida/trasladada a otro servidor/nodo/host.
• Thin Provisioning tanto para máquinas virtuales, como a nivel de contenedor/datastore.
• Capacidad de réplica en forma sincrónica o asincrónica.

• La réplica de los datos debe poder configurarse con granularidad por Máquina Virtual (VM).

• El clúster debe poder replicar contra otro/s Clúster/s en el sitio local o en sitios remotos de manera sencilla. El oferente deberá validar los requerimientos e incluir todos los componentes y licencias que sean necesarios para que la réplica de datos entre clúster sea posible.

Adicionalmente, la solución de réplica debe de permitir replicar máquinas virtuales entre hipervisores diferentes para poder facilitar la migración de un hipervisor a otro.
El almacenamiento debe estar diseñado especialmente para ambientes virtualizados. Debe ser compatible mínimamente con VMware, Hyper-V y AHV de Nutanix.

La arquitectura de almacenamiento debe permitir que cada servidor/nodo/host vaya integrado con una controladora para gestionar los recursos de almacenamiento en un clúster, y para todas las máquinas virtuales.  Estas controladoras deben comunicarse entre sí, permitiendo gestionar el acceso desde múltiples servidores/nodos/hosts a los datos replicados.
La solución de almacenamiento no requerirá de switches de Fibre Channel ni FCoE para su funcionamiento. Solamente utilizara IP sobre Ethernet estándar (no deberá ser obligatorio configurar características específicas como Jumbo-Frames, ni otras características especiales para lograr que el Clúster opere correctamente).
Deberá tener la capacidad de distribuir los datos adentro del clúster y adicionalmente poder replicarlos internamente, para poder asegurar su disponibilidad. El factor de réplica puede ser configurado en nodo 2 ó 3, dependiendo de la cantidad de nodos instalados.
La solución mínimamente deberá tener la capacidad de realizar respaldos a AWS (Amazon Web Services) y Microsoft Azure.

EXIGIDO

 

 
 

16

ESCALABILIDAD

Escalabilidad Proveer un crecimiento lineal, estable y predecible en su rendimiento a medida que se agreguen servidores/nodos/hosts. Soportar un crecimiento ilimitado en servidores/nodos/hosts, que incrementen la capacidad de procesamiento, memoria y almacenamiento. El clúster una vez establecido debe ser capaz de crecer de a un servidor/nodo/host por vez.

Deberá soportar crecimiento lineal con servidores/nodos/hosts heterogéneos, o de diferentes modelos para maximizar recursos de procesamiento, memoria o almacenamiento según se requiera.

Proveer la factibilidad de crecimientos modulares evitando así el sobredimensionamiento del proyecto.

El crecimiento tiene que ser en forma granular de hasta un servidor/nodo/host por vez incrementando los recursos globales de procesamiento, memoria, y almacenamiento en forma simultánea de todo el cluster y en diferentes proporciones, para poder acomodarse a los diferentes requerimientos.

EXIGIDO

 

 

17

TIPOS DE NODOS

Se debe poder integrar servidores/nodos/hosts con diferentes características que le permitan adaptarse a los requerimientos de cada una de las aplicaciones y formando un clúster mixto.
Los tipos de nodos esperados son:
•Intensivos en CPU/Memoria.

•Intensivos en Almacenamiento.

•Nodos solamente con discos SSD.

EXIGIDO

 

 

18

ALTA DISPONIBILIDAD

La infraestructura de Cómputo y Almacenamiento deberá ser distribuida y completamente definida por software, armando un clúster con las siguientes características:
• Filesystem con capacidad de recuperación ante la falla de un disco o de un servidor/nodo/host completo que forma parte de la solución.

• La protección de los datos deberá ser realizando múltiples copias de los datos en los discos pertenecientes a más de un servidor/nodo/host, de manera de garantizar que los datos sigan disponibles aún luego de la falla de algún componente o incluso la falla de un servidor/nodo/host completo (tolerancia a fallos).

o Esta protección de datos deberá realizarse entre los múltiples servidor/nodo/host que componen el Clúster, de manera distribuida  (no estando limitado a un esquema 1+1)
o En caso de una falla, la solución basada en Software debe actuar de manera automática creando nuevas copias múltiples de los datos, de manera de mantener el nivel de protección hasta tanto se reemplace el componente que haya fallado (Auto-Saneamiento de la solución)

EXIGIDO

 

 

19

ACCESORIOS

Todos los accesorios requeridos para entregar el equipo en perfecto estado de operación (Módulos, software, patch cords, power cord, rackmount kit, etc.)

EXIGIDO

 

 

 

LOTE 1 - AMPLIACION DE SOLUCIÓN HIPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

ITEM 3 AMPLIACIÓN DE CLUSTER NUTANIX SITIO DE CONTINGENCIA

 

Nombre del Bien o Servicio Conexo

Descripción Técnica

Mínimo Exigido

Cumple /
No Cumple

 

1

CANTIDAD

1

Exigido

 

 

2

MARCA

Nutanix

Exigido

 

 

3

MODELO

NX-8135N-G8-6334CM

Exigido

 

 

4

FACTOR DE FORMA

Chasis para Rack standard compatible con EIA-310D

EXIGIDO

 

 

5

TAMAÑO MÁXIMO DE LA SOLUCIÓN

hasta 2U

EXIGIDO

 

 

6

ARQUITECTURA DE PROCESADORES

Tipo x86 64 bits.

EXIGIDO

 

 

7

CAPACIDAD DE PROCESAMIENTO

Mínimo 16 núcleos de 3.6 GHz con memoria caché de 18 MB o superior en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

8

CAPACIDAD DE MEMORIA

Mínimo de 128 GB, 3200MHz, DDR4 en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

9

CAPACIDAD DE ALMACENAMIENTO

Mínimo de 3,84 TB RAW en discos de estado sólido (SSD) y 48 TB RAW en discos de capacidad (HDD) en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

10

ADMINISTRACIÓN

El marco de administración debe proporcionar una interfaz de usuario gráfica intuitiva. Toda la información se debe organizar y presentar a través de áreas bien definidas con el propósito de lograr un acceso sencillo a los datos operativos. Debe ofrecer la capacidad de definir y administrar una infraestructura convergente completa desde cualquier dispositivo.

EXIGIDO

 

 

11

CONEXIÓN LAN

Módulos de interconexión Ethernet con 4 puertos 10GbE con módulos SFP+ por cada servidor/nodo/host.
Se deberá contar con módulos de interconexión LAN internos al chasis, cada servidor/nodo/host con 4 puertos externos activados (SFP+) de corta o larga distancia de 10Gbps o superior.

La solución debe poder funcionar con cualquier switch Ethernet 10GbE.
Todos los cables necesarios para la conexión LAN, deberán ser proveídos.

EXIGIDO

 

 

12

VENTILADORES Y FUENTES DE ALIMENTACIÓN

El sistema de ventilación (coolers) y el sistema de alimentación provisto, deberán estar preparados para soportar la instalación completa del chasis con sus bahías completas, sin producir una degradación general del sistema. Las fuentes de alimentación deberán ser redundantes.

EXIGIDO

 

 

13

ALIMENTACIÓN ELÉCTRICA

La alimentación Eléctrica de los servidores/nodos/hosts deberá ser de tipo Redundante (1+1), pudiendo ser compartida por 2 servidores/nodos/hosts, siempre que se mantenga la redundancia.

220 VOLTIOS CORRIENTE ALTERNA MONOFÁSICO

 

 

Frecuencia en Hertz

50/60

 

 

14

HERRAMIENTA / CONSOLA DE GESTIÓN O ADMINISTRACIÓN

• La interfaz de administración deber ser accedida mediante un browser y estar basada en HTML5.

• Proveer una única vista para todo el entorno manteniendo múltiples puntos de acceso.
• La consola de Administración deberá ejecutarse sobre los mismos servidores/nodos/hosts del Clúster que administra, aprovechando la tolerancia a fallos del mismo (Ej. La consola debe permanecer disponible ante la falla de cualquiera de los servidores/nodos/hosts).
• Proveer accesos alternativos basados en SSH y/o interfaces seriales remotas estilo IPMI.
• Contener autenticación LDAP, Active Directory, CAC Prompt y certificados firmados por SSL.

• Contemplar integración mediante el uso de REST API a otras soluciones de administración, a fin de facilitar la integración con ambientes de monitoreo actuales.
• Tener la capacidad de facilitar una consola gráfica, que permita visualizar los recursos utilizados por las máquinas virtuales (VM) independientemente del tipo de hipervisor.

EXIGIDO

 

 

15

ALMACENAMIENTO

La solución debe contar con un sistema de almacenamiento distribuido definida por software y proveer las siguientes funcionalidades:
• Cada servidor/nodo/host, deberá contar con su propia controladora de almacenamiento.
• Esquema de capas en forma automática (auto-tiering) entre los diferentes niveles, memoria, disco de estado sólido (SSD) y discos mecánicos (HDD) en tiempo real.
• Deduplicación en la ingesta de información, en los discos de estado sólido (SSD) y en los discos mecánicos (HDD).
• Compresión tanto en línea y en reposo.
• La solución debe soportar Erasure Coding, para mejor aprovechamiento del almacenamiento.
• Snapshots basados en punteros.
• Sistemas de clones de máquinas virtuales.
• Capacidad de usar Erasure Coding para poder hacer uso eficiente del espacio en discos mecánicos (HDD).

• Debe existir un sistema que permita que a lo largo del tiempo los datos más accedidos por una VM corriendo en cualquiera de los servidores/nodos/hosts, tengan siempre una copia en el almacenamiento del servidor/nodo/host local, de manera que la lectura pueda realizarse a velocidad local en la mayoría de los accesos. Este mecanismo debe converger y actualizarse de manera automática si la VM es movida/trasladada a otro servidor/nodo/host.

• Thin Provisioning tanto para máquinas virtuales, como a nivel de contenedor/datastore.
• Capacidad de réplica en forma sincrónica o asincrónica.

• La réplica de los datos debe poder configurarse con granularidad por Máquina Virtual (VM).

• El clúster debe poder replicar contra otro/s Clúster/s en el sitio local o en sitios remotos de manera sencilla. El oferente deberá validar los requerimientos e incluir todos los componentes y licencias que sean necesarios para que la réplica de datos entre clúster sea posible.

Adicionalmente, la solución de réplica debe de permitir replicar máquinas virtuales entre hipervisores diferentes para poder facilitar la migración de un hipervisor a otro.
El almacenamiento debe estar diseñado especialmente para ambientes virtualizados. Debe ser compatible mínimamente con Vmware,  Hyper-V y AHV de Nutanix.

La arquitectura de almacenamiento debe permitir que cada servidor/nodo/host vaya integrado con una controladora para gestionar los recursos de almacenamiento en un clúster, y para todas las máquinas virtuales.  Estas controladoras deben comunicarse entre sí, permitiendo gestionar el acceso desde múltiples servidores/nodos/hosts a los datos replicados.
La solución de almacenamiento no requerirá de switches de Fibre Channel ni FCoE para su funcionamiento. Solamente utilizara IP sobre Ethernet estándar (no deberá ser obligatorio configurar características específicas como Jumbo-Frames, ni otras características especiales para lograr que el Clúster opere correctamente).
Deberá tener la capacidad de distribuir los datos adentro del clúster y adicionalmente poder replicarlos internamente, para poder asegurar su disponibilidad. El factor de réplica puede ser configurado en nodo 2 ó 3, dependiendo de la cantidad de nodos instalados.
La solución mínimamente deberá tener la capacidad de realizar respaldos a AWS (Amazon Web Services) y Microsoft Azure.

EXIGIDO

 

 
 

16

ESCALABILIDAD

Escalabilidad Proveer un crecimiento lineal, estable y predecible en su rendimiento a medida que se agreguen servidores/nodos/hosts. Soportar un crecimiento ilimitado en servidores/nodos/hosts, que incrementen la capacidad de procesamiento, memoria y almacenamiento. El clúster una vez establecido debe ser capaz de crecer de a un servidor/nodo/host por vez.

Deberá soportar crecimiento lineal con servidores/nodos/hosts heterogéneos, o de diferentes modelos para maximizar recursos de procesamiento, memoria o almacenamiento según se requiera.
Proveer la factibilidad de crecimientos modulares evitando así el sobredimensionamiento del proyecto.

El crecimiento tiene que ser en forma granular de hasta un servidor/nodo/host por vez incrementando los recursos globales de procesamiento, memoria, y almacenamiento en forma simultánea de todo el clúster y en diferentes proporciones, para poder acomodarse a los diferentes requerimientos.

EXIGIDO

 

 

17

TIPOS DE NODOS

Se debe poder integrar servidores/nodos/hosts con diferentes características que le permitan adaptarse a los requerimientos de cada una de las aplicaciones y formando un clúster mixto.
Los tipos de nodos esperados son:
•Intensivos en CPU/Memoria.

•Intensivos en Almacenamiento.

•Nodos solamente con discos SSD.

EXIGIDO

 

 

 

 

 

 

 

 

 

18

ALTA DISPONIBILIDAD

La infraestructura de Cómputo y Almacenamiento deberá ser distribuida y completamente definida por software, armando un clúster con las siguientes características:
• Filesystem con capacidad de recuperación ante la falla de un disco o de un servidor/nodo/host completo que forma parte de la solución.

• La protección de los datos deberá ser realizando múltiples copias de los datos en los discos pertenecientes a más de un servidor/nodo/host, de manera de garantizar que los datos sigan disponibles aún luego de la falla de algún componente o incluso la falla de un servidor/nodo/host completo (tolerancia a fallos).

o Esta protección de datos deberá realizarse entre los múltiples servidores/nodo/host que componen el Clúster, de manera distribuida (no estando limitado a un esquema 1+1)

o En caso de una falla, la solución basada en Software debe actuar de manera automática creando nuevas copias múltiples de los datos, de manera de mantener el nivel de protección hasta tanto se reemplace el componente que haya fallado (Auto-Saneamiento de la solución)

EXIGIDO

 

 

19

ACCESORIOS

Todos los accesorios requeridos para entregar el equipo en perfecto estado de operación (Módulos, software, patch cords, power cord, rackmount kit, etc.)

EXIGIDO

 

 

 

ANEXO 1 MODELOS DE NOTAS PARA EJECUCION DE PROYECTO

 

MODELO DE INFORME DE REVISIONES TECNICAS Y ACTUALIZACIONES

 

INFORME TÉCNICO DE REVISIONES TECNICAS Y ACTUALIZACIONES

 

PARA                            :                  MINISTERIO DE HACIENDA DGIC

 

ATENCION                  :                  {NOMBRE DEL DIRECTOR GENERAL DE LA DGIC}

 

FECHA                          :                  {FECHA}

 

ASUNTO  :                  Mantenimiento y Actualización de Equipamiento Incluido en la {COD. PROCESO LICITATORIO - MH N° CONTRATO - DESCRIPCIÓN DEL PROCESO LICITATORIO ID N° CONTRATACIONES}    

 

 

  1. LISTA DE EQUIPAMIENTO INVOLUCRADO EN EL RELEVAMIENTO

 

DESCRIPCIÓN DE EQUIPAMIENTO

N° SERIE

EQUIPO 1 {NOMBRE DE EQUIPO}

 

EQUIPO N {NOMBRE DE EQUIPO}

 

 

  1. DESCRIPCION DEL TRABAJO

 

EQUIPO 1 {NOMBRE DE EQUIPO}

 

Se realizó la actualización del equipo {NOMBRE DE EQUIPO} denominado como {función del equipo} de la versión {VERSIÓN ACTUAL} se migró a la versión {VERSIÓN RECOMENDADA}.

 

El equipo se encontraba de la siguiente manera:

{IMPRESIONES DE PANTALLA}

 

Por último se realizó el salto a la version deseada, el equipo quedo con la versión que se observa:

{IMPRESIONES DE PANTALLA}

 

  1. OBSERVACIONES

 

{Si durante los trabajos de mantenimiento y actualización hubo imprevistos y/o problemas se deberán detallar las observaciones al respecto}

 

  1. IMPACTO DEL TRABAJO DE ACTUALIZACION

 

Para la realización de los trabajos (SERA NECESARIO / NO SERÁ NECESARIO) el reinicio de los equipos por lo tanto (SE VERAN / NO SE VERAN) afectados los servicios de conectividad.                       

 

  1. TECNICO RESPONSABLE

 

Este informe fue elaborado por {Nombre y Apellido del Técnico}

 

 

MODELO DE NOTA PARA PRESENTACIÓN DE CRONOGRAMA DE ACTIVIDADES

                                                                     Asunción, {FECHA}

Sres.

Ministerio de Hacienda

Dirección General de Informática y Comunicaciones

{NOMBRE DEL DIRECTOR GENERAL DE LA DGIC}

PRESENTE

 

Ref.: {COD. PROCESO LICITATORIO - MH N° CONTRATO - DESCRIPCIÓN DEL PROCESO LICITATORIO ID N° CONTRATACIONES}

 

Nos dirigimos a usted respecto a la Licitación de referencia a fin de presentar la siguiente propuesta de cronograma para cumplir con lo acordado en el Contrato N° {NUMERO DE CONTRATO} mencionado:

 

CRONOGRAMA TENTATIVO DE ACTIVIDADES

DIA 1

FECHA 1

DIA 2

FECHA 2

DIA N

FECHA N

DIA N+1

FECHA N+1

DESCRIPCIÓN DETALLADA DE ACTIVIDAD 1

 

 

 

 

DESCRIPCIÓN DETALLADA DE ACTIVIDAD 2

 

 

 

 

DESCRIPCIÓN DETALLADA DE ACTIVIDAD N

 

 

 

 

Presentación de Informe final de los trabajos

 

 

 

 

 

LISTA DE EQUIPOS Y/O INFRAESTRUCTURA INVOLUCRADA EN EL CRONOGRAMA

 

DESCRIPCIÓN DE EQUIPAMIENTO

N° SERIE

EQUIPO 1 {NOMBRE DE EQUIPO}

 

EQUIPO 2 {NOMBRE DE EQUIPO}

 

EQUIPO N {NOMBRE DE EQUIPO}

 

 

LISTA DE INFRAESTRUCTURA INVOLUCRADA EN EL CRONOGRAMA

 

DESCRIPCIÓN DE INFRAESCTRUCTURA

OBSERVACIONES

RED LOCAL DE {NOMBRE DE DEPENDENCIA}

 

DEPENDENCIA MH {NOMBRE DE DEPENDENCIA}

 

NODO DE LA RMSP {NOMBRE DE DEPENDENCIA}

 

NOMBRE DE OEE

 

 

LISTA DE TECNICOS

 

NOMBRE Y APELLIDO

N° CEDULA

 

 

 

 

 

EQUIPAMIENTO O HERRAMIENTA PARA REALIZACIÓN DE TRABAJOS

 

DESCRIPCIÓN DE EQUIPAMIENTO Y/O HERRAMIENTA

N° DE SERIE

 

 

 

 

 

 

MODELO DE INFORME TECNICO DE RELEVAMIENTO

 

INFORME TÉCNICO DE RELEVAMIENTO

 

PARA                            :                  MINISTERIO DE HACIENDA DGIC

 

ATENCION                  :                  {NOMBRE DEL DIRECTOR GENERAL DE LA DGIC}

 

FECHA                          :                  {FECHA}

 

ASUNTO  :                  Relevamiento de la {COD. PROCESO LICITATORIO - MH N° CONTRATO - DESCRIPCIÓN DEL PROCESO LICITATORIO ID N° CONTRATACIONES}               

 

 

  1. LISTA DE EQUIPAMIENTO INVOLUCRADO EN EL RELEVAMIENTO

 

DESCRIPCIÓN DE EQUIPAMIENTO

N° SERIE

EQUIPO 1 {NOMBRE DE EQUIPO}

 

EQUIPO N {NOMBRE DE EQUIPO}

 

 

  1. ESTADO ACTUAL DE EQUIPOS

 

EQUIPO 1 {NOMBRE DE EQUIPO}

SOFTWARE

VERSION ACTUAL

VERSION RECOMENDADA

OBSERVACIONES

{descripción completa del software}

{descripción completa del software}

{Se deberá describir las nuevas funcionalidades y/o bugs que soluciona la nueva versión}

 

{IMPRESIONES DE PANTALLA}

 

EQUIPO N {NOMBRE DE EQUIPO}

SOFTWARE

VERSION ACTUAL

VERSION RECOMENDADA

OBSERVACIONES

{descripción completa del software}

{descripción completa del software}

{Se deberá describir las nuevas funcionalidades y/o bugs que soluciona la nueva versión}

 

{IMPRESIONES DE PANTALLA}

 

  1. TIEMPO ESTIMADO DE TRABAJOS

 

El tiempo estimado para realizar este trabajo de actualización y mantenimiento de los equipos es de X horas.

 

  1. IMPACTO DEL TRABAJO DE ACTUALIZACION

 

Para la realización de los trabajos (SERA NECESARIO / NO SERÁ NECESARIO) el reinicio de los equipos por lo tanto (SE VERAN / NO SE VERAN) afectados los servicios de conectividad.                       

 

  1. TECNICO RESPONSABLE

Este informe fue elaborado por {Nombre y Apellido del Técnico}

 

 

MODELO DE FORMULARIO DE CAMBIO DE INFRAESTRUCTURA

 

 

  1. ANTECEDENTE DEL PROCESO LICITATORIO Y/O CONTRACTUAL

 

Descripción

Detalle

1

PROCESO LICITATORIO

 

2

CONTRATO

 

3

EMPRESA ADJUDICADA

 

 

  1. LISTA DE EQUIPOS

 

Descripción de Equipamiento

Número de Serie

Estado

 

 

 

 

 

 

 

  1. ESTADO ACTUAL (Revisión del estado de salud de los equipos)

 

  •  
  •  
  •  

 

  1. RECOMENDACIÓN (Que se cambia)

 

  •  
  •  
  •  

 

  1. JUSTIFICACIÓN DEL CAMBIO

 

  •  
  •  
  •  

 

  1. PROBLEMAS QUE SE RESOLVERAN CON EL CAMBIO

 

  •  
  •  
  •  

 

  1. RESPONSABLES DEL CAMBIO

 

  •  
  •  
  •  

 

  1. IMPACTO DE LOS TRABAJOS A REALIZAR (Impacto del cambio)

 

  •  
  •  
  •  

 

  1. ANALISIS DE RIESGO

 

RIESGO:

  •  
  •  

 

EQUIPO

TIEMPO

IMPACTO

OBSERVACION

 

 

 

 

 

 

 

 

 

  1. CONFIGURACION PASO A PASO

 

  •  
  •  
  •  
  •  

 

  1. MECANISMO DE PRUEBA

 

  •  
  •  
  •  

 

  1. PROCEDIMIENTO DE RESTABLECIMIENTO

 

  •  
  •  
  •  

 

Detalles de los productos y/ servicios con las respectivas especificaciones técnicas - CPS

Los productos y/o servicios a ser requeridos cuentan con las siguientes especificaciones técnicas:

 

 

 

 

 

 

DATOS PARA MODELO DE CONTRATO

 

  1. VIGENCIA DEL CONTRATO

 

Este contrato tendrá de vigencia hasta el cumplimiento total de las obligaciones.

 

El plazo de prestación del servicio será por el periodo de:

LOTE 1 = 36 (treinta y seis) meses

 

El sistema de adjudicación será por el Total.

 

  1. PLAZO, LUGAR Y CONDICIONES DE LA PROVISION DE BIENES

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

El plazo máximo de entrega del INFORME DE IMPLEMENTACIÓN es de 120 (cierto veinte) días corridos, contados a partir del día hábil siguiente a la recepción de la Orden de Compra por parte de la CUOC.

 

El plazo máximo de entrega de los INFORME DE REVISIONES TECNICAS PREVENTIVAS es de 30 (treinta) días corridos, contados a partir de la aprobación del cronograma de actividades por parte de la DGIC.

 

El plazo máximo de entrega de los INFORME DE SERVICIO TECNICO O DE URGENCIA es de 30 (treinta) días corridos, contados a partir de la resolución del problema.

 

  1. FORMA DE PAGO

 

Las condiciones de pago al Proveedor en virtud del Contrato serán las siguientes:

 

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

% Contrato

DOCUMENTO REQUERIDO

50% del Contrato. A los 120 días corridos, contados a partir del día hábil siguiente de la recepción de la OC, por parte del proveedor

INFORME DE IMPLEMENTACIÓN: APROBADO.

25% del Contrato. Al segundo año de la vigencia del contrato.

2do. INFORME DE REVISIONES TECNICAS PREVENTIVAS DE SOFTWARE Y HARDWARE: APROBADO

25% del Contrato. A tercer año de la vigencia del Contrato

3er. INFORME DE REVISIONES TECNICAS PREVENTIVAS DE SOFTWARE Y HARDWARE:  APROBADO

 

 

El pago se realizará en base a los productos esperados e informes de trabajos realizados los cuales deberán ser aprobados por la Dirección General de Informática y Comunicaciones para su posterior remisión a la Dirección Administrativa para la prosecución de los trámites administrativos.

 

  1. ADMINISTRACIÓN DEL CONTRATO

 

El encargado de realizar la conformidad de los bienes y servicios a ser proveídos es el Departamento de Infraestructura de TI (Teléf.: +595 21 492455 email: diti@hacienda.gov.py).

 

La conformidad final será aprobada por la Coordinación de Operaciones de TIC y la DGIC.

 

ESPECIFICACIONES TÉCNICAS Y SUMINISTROS REQUERIDOS

 

  1. LISTA DE BIENES

 

ITEM/ LOTE

DESCRIPCIÓN

UNIDAD DE MEDIDA

PRESENTACIÓN

CANTIDAD

AMPLIACION DE SOLUCIÓN HIPERCONVERGENTE PARA SERVICIOS DE LA DGIC

1

SOLUCIÓN HIPERCONVERGENTE PARA ACTUALIZACIÓN DE CLUSTER NUTANIX G5

UNIDAD

UNIDAD

2

2

SOLUCIÓN HIPERCONVERGENTE PARA REPLICACIÓN DE CLUSTER MICROSOFT

UNIDAD

UNIDAD

1

3

AMPLIACIÓN DE CLUSTER NUTANIX SITIO DE CONTINGENCIA

UNIDAD

UNIDAD

1

 

  1. DISEÑO LOGICO DE LA SOLUCIÓN

OBSERVACIÓN: LAS IMAGENES CORRESPONDIENTES A ESTE PUNTO, SE ENCUENTRAN COMO ACLARACIÓN, DADO QUE EL PLIEGO ELECTRÓNICO NO PERMITE INSERTAR IMAGENES.

 

  1. INTRODUCCIÓN

 

La Dirección General de Informática y Comunicaciones (DGIC) dependiente de la Subsecretaría de Estado de Administración Financiera (SSEAF) del Ministerio de Hacienda se encuentra encarando en la actualidad la actualización tecnológica del equipamiento de Servidores Hyperconvergentes para soportar los nuevos requerimientos entre los que podemos citar la Reingeniería del Sistema Integrado de Administración de Recursos del Estado (SIARE), en reemplazo del equipamiento actualmente en producción el cual ya fue declarado en obsolescencia por el fabricante de los mismos.

 

  1. ANTECEDENTES Y JUSTIFICACIÓN

 

La Dirección General de Informática y de Comunicaciones, en el marco de sus funciones definidas por el Articulo 81 de la Ley N° 1535/99 De Administración Financiera del Estado adquirió una infraestructura Hyperconvergente (HCI) en diferentes llamados desde el año 2017 para el acceso eficiente a los sistemas y subsistemas del SIARE que administra en su Data Center y que disponibiliza a los diferentes Organismos y Entidades del Estado (OEE) mediante la Red Metropolitana del Sector Público.

 

El equipamiento actual fue adquirido en varios procesos licitatorios desde el año 2017 y renovándose en su garantía hasta el año 2022 cuando los mismos fueron declarados EoL y EoS (Fin de vida útil y soporte) por parte de la Marca NUTANIX como se puede observar en la página del fabricante: https://portal.nutanix.com/page/documents/eol/list?%20type=announcement.

 

  1. OBJETIVOS

 

El Objetivo principal de este proyecto es complementar el equipamiento actual de la solución de hyperconvergencia para el Data Center principal de la DGIC y de contingencia del Ministerio de Hacienda basado en un diseño Multi-Pod ó Data Center extendido distribuyendo equipamiento crítico en ambos Data Center en una configuración de Alta Disponibilidad (HA) para el 100% de los servicios.  De la misma forma es indispensable fortalecer el equipamiento actual de la solución Bases de Datos del SIARE para el Data Center principal de la DGIC y de contingencia del Ministerio de Hacienda basado en un diseño Activo-Pasivo.  En este contexto se requiere del soporte para brindar soluciones inmediatas ante posibles problemas y garantizar la disponibilidad en un 99,9% para las 229 entidades.

 

El segundo objetivo de este proyecto es alinear los equipos, licencias y servicios a una hoja de ruta que incluya tecnologías que permitan múltiples dominios de servicios y funcionalidades de IaaS (Infraestructura como servicio) a través del uso de tecnologías de virtualización de networking, software de automatización y herramientas de orquestación que permitan correr los servicios independientemente de dónde estén siendo ejecutados (Datacenter 1 o 2 o una nube pública/híbrida/privada) manteniendo las mismas políticas tanto de funcionamiento, seguridad y calidad de servicio.

 

En resumen, proporcionar la infraestructura tecnológica al DATA CENTER de la DGIC para soportar los nuevos requerimientos que demanda el proyecto de reingeniería del SIARE con la capacidad de soportar toda la carga que demanda las OEE, Gobernaciones y Municipalidades que se conectan al Sistema Integrado de Administración de Recursos del Estado (SIARE).

 

  1. JUSTIFICATIVO PARA LLAMADO

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC                                                                                                                                             

 

Dadas las características de los equipos adquiridos en los procesos para la implementación de la solución hiperconvergente de la marca NUTANIX para el Data Center en el Sitio Principal como en el de Contingencia se tiene previsto ampliar esta tecnología para lograr una Alta Disponibilidad (HA) de servicios. En este sentido, y a fin de seguir manteniendo una infraestructura y arquitectura estándar se requiere que la ampliación de la solución, minimizando de esta forma riesgos de incompatibilidad o problemas de integración entre distintos fabricantes. La DGIC considera que esta etapa de ampliación debe ser ejecutada en el marco de dependencia tecnológica por los siguientes motivos:

 

  1. El 100% del equipamiento de la plataforma hyperconvergente instalada (1ra etapa y 2da etapa del Proyecto) en el Data Center Principal de la DGIC y Sitio de Contingencia son de la marca NUTANIX. La implementación lógica de esta ampliación requiere interconectar e interactuar bajos los mismos criterios de configuración, tipo de soporte y garantías hoy operativos.

 

  1. Los equipos requeridos deben interactuar de forma transparente con los existentes con los mismos criterios de resiliencia y eficiencia; por lo que es indispensable adquirir equipos homologados por el fabricante para poder conformar los esquemas de Alta disponibilidad en toda la arquitectura de ambos Data Center de la DGIC (Sitio Principal y Contingencia).

 

  1. Es necesario garantizar la continuidad de los servicios durante el proceso de despliegue e implementación, por lo cual las tecnologías y protocolos deben ser los mismos.

 

  1. LA DGIC posee un plantel de técnicos profesionales estable y con conocimiento técnico adquirido a través de capacitaciones, entrenamientos y constante actualización en el manejo y administración de los equipos NUTANIX. Este Know How hace posible que la DGIC gestione de forma autónoma acciones de administración y monitoreo de la solución hoy implementada.

 

  1. Entendemos que se podrá realizar una licitación pública competitiva ya que en nuestro país, existen representante directos de la marca de referencia y varios integradores con técnicos certificados permanentemente en su staff, lo que finalmente garantiza la continuidad de los servicios de post venta local, y la existencia suficiente de soporte calificado y certificado directamente por el fabricante, así como disponibilidad de partes para minimizar en gran medida, posibles puntos críticos de falla que puedan afectar los servicios críticos que ofrece la DGIC.

 

Como antecedente se detallan los procesos en los cuales se adquirió la solución NUNATIX, la extensión de garantía y soporte de la misma hasta el año 2022:

 

  • Contrato MH N° 139/17 - LPN N° 15/17 - ID N° 328.546 - Actualización de Infraestructura para Reingeniería del SIARE 1ra Etapa
    • Solución de cómputo y almacenamiento Hyperconvergente para la ampliación del ambiente de virtualización del SIARE
  • Contrato MH N° 096/19 - LPN SBE N° 13/19 - ID 361.345 - Actualización de Infraestructura para Reingeniería del SIARE 2da Etapa
    • Ampliación de Solución Hyperconvergente de Servicios
    • Ampliación de Solución Hyperconvergente para Directorio Activo

 

  1. ALCANCE DE LOS SERVICIOS

 

    1. Vigencia del Contrato:                 Hasta el cumplimiento total de las obligaciones

 

    1. Sistema de adjudicación:           Será por el LOTE.

 

    1. Tipo de Servicio:                           PROVISION DE EQUIPAMIENTO.

 

    1. Plazo de prestación:                     Será por el periodo de 36 (treinta y seis) meses LOTE 1

 

    1. Nivel de Soporte:                          LOTE 1

Del fabricante tipo 24X7 por un periodo de 36 meses

Del oferente tipo 24X7 por un periodo de 36 meses

 

    1. Tipo y Alcance de la Garantía:                

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

La Garantía Extendida debe ser del Fabricante y Soporte técnico del Oferente. La garantía debe incluir el soporte técnico para atención de Hardware y Software, Mano de Obra y Repuestos (cualquier daño de componentes de los equipos deberá ser cambiado) incluyendo traslado de los equipos de la oficina del cliente al proveedor y viceversa a cargo del proveedor.

 

La garantía debe incluir el servicio completo de mantenimiento preventivo: suministro de nuevas versiones (releases) y reparaciones (generalmente denominadas como patches, temporary fixes, APARs, Bugs, etc.). Estos mantenimientos se realizarán cada 12 meses durante la vigencia del contrato

    1. En caso de necesidad la posibilidad de acceso directo al Centro Asistencial de la marca con intermediación para resolución o apertura de casos.
    2. Se deberá proveer un usuario para acceder al sistema de apertura y seguimiento de casos del Oferente/fabricante.

 

    1. Periodo de Valides de la Garantía de los bienes:

Será de 36 meses a partir de la recepción de la solución por parte de la DGIC (LOTE 1).

 

    1. Tiempo de funcionamiento de los bienes:

Será de 36 meses a partir de la recepción de la solución por parte de la DGIC (LOTE 1).

 

    1. Plazo de reposición de bienes:  Reemplazo avanzado de hardware en caso de fallas, será como máximo de 24 horas, a partir de la fecha y hora de solicitud. En caso que el reemplazo del componente dañado implique la indisponibilidad del equipo por más de 24 horas, el proveedor suministrará otro equipo mientras dure la recepción del nuevo componente del mismo

 

El proveedor garantiza que todos los bienes suministrados están libres de defectos derivados de actos y omisiones que este hubiera incurrido, o derivados del diseño, materiales o manufactura, durante el uso normal de los bienes en las condiciones que imperen en la República del Paraguay.

 

La Contratante comunicará al proveedor la naturaleza de los defectos y proporcionará toda evidencia disponible, inmediatamente después de haberlos descubierto. La contratante otorgará al proveedor facilidades razonables para inspeccionar tales defectos.

 

Tan pronto reciba esta comunicación, y dentro del plazo establecido en este apartado, deberá reparar o reemplazar los bienes defectuosos, o sus partes sin ningún costo para la contratante.

 

    1. Soporte Técnico in-situ: Asistencia técnica in-situ a pedido de la contratante, atención a las alertas y a los reclamos con un tiempo de respuesta no mayor a una (2) horas después de comunicado el inconveniente.

 

    1. Lugar de trabajo:

 

Ministerio de Hacienda Dirección General de Informática y Comunicaciones.

Ministerio de Hacienda Data Center de Contingencia.

 

    1. Horario del servicio: El Servicio deberá estar enmarcado dentro de los siguientes horarios: 
  • Ordinario: período normal de actividades de lunes a viernes de 07:30 hs. a 17:00 hs.
  • Extraordinario: a solicitud de la Institución (los días sábados, domingos y feriados o dentro de los días laborales ordinarios, pero fuera del periodo normal de actividades para las implementaciones que involucren corte en el servicio). 

 

  1. CONDICIONES GENERALES DEL PROYECTO

 

    1. El Ministerio de Hacienda nombrará uno o varios supervisores del LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC. Estos técnicos tendrán la función de designar y priorizar los trabajos a realizar, aprobar o rechazar lo realizado, informes realizados por la empresa contratada, así como también realizar los informes del cumplimiento de los servicios realizados.

 

    1. En caso que los trabajos previstos y que por su naturaleza demanden que el personal técnico deba realizar las tareas fuera de las oficinas de la DGIC a fin de garantizar el normal funcionamiento de la infraestructura de comunicaciones, la Contratada deberá prever la movilidad tanto de sus técnicos como de los técnicos de la DGIC de fungen como contraparte.

 

    1. La contratada está obligada al uso de los formularios internos de la Institución para los servicios contratados. Pudiendo esta utilizar además sus propios formularios (internos).

 

    1. La solución ofertada debe ser plenamente compatible con la solución NUTANIX existente en el sitio de Principal de la Dirección General de Informática y Comunicaciones del Ministerio de Hacienda. El nuevo clúster deberá servir para la replicación de las máquinas virtuales del sitio principal al sitio de contingencia y establecer de esta manera la alta disponibilidad de toda la plataforma.

 

    1. El Oferente deberá proveer todas las licencias de VMware necesarias para que el clúster se encuentre debidamente cubierto y pueda operar sin inconvenientes legales. El clúster NUTANIX G5 cuenta actualmente con 6 licencias de VMware vSphere Entreprise Plus con soporte activo. Las mismas serán transferidas al nuevo cluster.

 

El soporte de la marca de dichas licencias debe ser extendidas al plazo de garantía y soporte solicitados en esta licitación.  También deben ser adquiridas nuevas licencias de VMware vSphere Enterprise Plus para cubrir la cantidad total de procesadores del cluster.

 

El Oferente deberá también extender el periodo de soporte de VMware vCenter Server existente y ajustarlo al plazo de garantía y soporte solicitados en esta licitación

 

    1. La falta de algún elemento (hardware, software   y/o cualquier componente o partes) necesario para el funcionamiento de los bienes, tanto individualmente, en operación conjunta, para los fines funcionales previstos por el Contratante, originado por cualquier tipo de interpretación de las especificaciones técnicas, obligará al oferente a proveerlo de inmediato y sin cargo adicional para el Contratante.

 

Las adecuaciones que fueran necesarias realizar para dar cumplimiento a lo establecido precedentemente serán realizadas por el Contratante en coordinación con el Oferente y garantizando en todos los casos la preservación de la funcionalidad requerida.

 

    1. Todos los equipos a proveer deberán ser nuevos, sin uso y en perfecto estado de funcionamiento. Todo bien a suministrar deberá pertenecer a la línea actual de productos del fabricante, y ser el más reciente estable en dicha línea.

 

    1. La entrega de cualquier Software significará la entrega de las Licencias de Uso del Software, emitidas a nombre del Contratante como mínimo durante el periodo que dure la garantía.

 

  1. SERVICIO DE IMPLEMENTACIÓN

 

    1. El servicio contemplará todos los suministros, actividades de montaje, instalación en general, configuración y puesta en funcionamiento de la solución ofertada en el gabinete designado por la Dirección General de Informática y Comunicaciones (DGIC) del Ministerio de Hacienda. La instalación deberá ser realizada con la presencia de técnicos de la Dirección General de Informática y Comunicaciones (DGIC) del Ministerio de Hacienda.

 

    1. Instalación de la Solución: Contemplará todos los suministros, actividades de montaje, instalación en general, configuración y puesta en funcionamiento de la solución en las siguientes entidades y dependencias del MH:
  1. Ministerio de Hacienda Dirección General de Informática y Comunicaciones.
  2. Ministerio de Hacienda Data Center de Contingencia

 

  1. ACTIVIDADES ESPECIFICAS DEL PROYECTO

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

    1. Garantía de Hardware y Software: Para los casos en que los equipos por la naturaleza de la avería y/o por recomendación del fabricante deberán están contemplados el cambio de partes parcial (en el caso de los equipos modulares) o total de los equipos descritos en las especificaciones técnicas detalladas en el PUNTO 15 ESPECIFICACIONES TECNICAS durante un periodo de 36 (treinta y seis) meses, que contemplará el soporte y subscripción de lo siguiente:
  • Remplazo avanzado de hardware en caso de fallas en 4 horas, a partir de la fecha y hora de la solicitud.
  • Traslado de los equipos de la oficina del cliente al proveedor y viceversa a cargo del oferente.
  • Firmware & General Updates.
  • Enhanced Support.
  • Mano de Obra.
  • Asistencia técnica telefónica inmediata. Línea telefónica ilimitada (24 horas al día) con acceso a especialistas expertos en redes.
  • Tareas técnicas de revisión preventiva que el proveedor deberá realizar en los equipos debe incluir el servicio completo preventivo anual de Hardware: limpieza y verificación anual de los equipos, y semestral de Software: suministro de nuevas versiones (releases) y patches (temporary fixes, APARs, Bugs, etc.) semestral.

 

    1. Soporte Técnico in-situ: Asistencia técnica in-situ a pedido de la contratante, la cual debe cumplir los siguientes requisitos:
  • Atención a las alertas y a los reclamos de la contraparte designada con un tiempo de respuesta no mayor a una (2) horas después de comunicado el inconveniente al proveedor.
  • Disponibilidad del servicio debe ser de 7 x 24 durante el periodo de la garantía.

 

  1. ACUERDO DE CONFIDENCIALIDAD

 

    1. La Empresa Contratada no podrá utilizar, disponer, copiar, transmitir, divulgar, difundir a ninguna otra institución o persona, ni antes, ni durante, ni después de la prestación del servicio, toda la información recuperada en este proceso, debiendo ser considerada la misma como de estricta y absoluta confidencialidad. Cualquier tipo de comunicación o difusión de esta información, independientemente de su formato, deberá ser efectuada a través de la CONTRATANTE, siendo ella la única parte que podrá autorizar por escrito cualquier tipo de difusión.

 

  1. RESULTADOS Y PRODUCTOS ESPERADOS

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

    1. Provisión, Instalación e Implementación de equipamiento, componentes y licencias en el Data Center de la DGIC y Sitio de Contingencia.
    2. Subscripción de licencias a nombre de la Dirección General de Informática y Comunicaciones del equipamiento incluido en el presente llamado.
    3. Informe de trabajos realizados y documentación complementaria aprobado según los descrito en el punto 14.1 INFORME DE IMPLEMENTACIÓN
    4. Asistencia y revisiones técnicas in situ realizadas.
    5. Informe de Asistencia y revisiones técnicas aprobado según los descrito en el punto 14.2 INFORME DE REVISIONES TECNICAS PREVENTIVAS DE SOFTWARE Y HARDWARE

 

  1. CALENDARIO E HITOS DEL PROYECTO

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

Actividades e Informes

Mes

04

06

12

18

24

30

36

Implementación de Solución (CRITICO)

Provisión, Instalación y pruebas de funcionamiento, que será evidenciado con los informes requeridos en el Punto 14.1 INFORME DE IMPLEMENTACION

 

 

 

 

 

 

 

Servicio semestral y anual de revisiones técnicas preventivas

Servicio que será evidenciado con los informes requeridos en el Punto 14.2 INFORME DE REVISIONES TECNICAS PREVENTIVAS

 

SW

 

SW HW

SW

SW HW

SW

SW HW

Servicio Técnico o de Urgencia in-situ

Servicio on-demand que será evidenciado con los informes requeridos en el Punto 14.3 INFORME DE SERVICIO TÉCNICO O DE URGENCIA

 

Durante la vigencia del Contrato

OBSERVACIÓN: Las actividades denominadas (CRÍTICO) y los de servicio anual de revisiones preventivas involucran pagos conforme al PLAZO DE ENTREGA DE TRABAJOS E INFORMES y MODALIDAD DE PAGO

Vigencia de Servicios Conexos

Garantía del fabricante tipo 24x7

Soporte técnico del oferente tipo 24X7

Durante la vigencia del Contrato

                 

 

 

  1. INFORMES

 

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

    1. INFORME DE IMPLEMENTACION: Este documento deberá incluir los siguientes puntos:

 

  1. Provisión, Instalación e Implementación de equipamiento, componentes y licencias en el Data Center de la DGIC y Sitio de Contingencia.
  2. Documentación relativa a la garantía por 36 meses del equipamiento.
  3. Carta compromiso de revisiones técnicas anuales para el hardware y semestrales para el software del total de los equipos descritos en el PUNTO 15. ESPECIFICACIONES TÉCNICAS
  4. Usuario registrado para soporte web.

 

A manera de guía se detallan los anexos que debe incluir el informe para el ítem 1:

  1. Descripción de la Ingeniería de la Red.
  2. Planos de vista general de la Red y de los equipos a utilizar con su identificación.
  3. Planos de ubicación de los equipos de Red.
  4. Diagrama de conexión de los Equipos de Comunicación, Físico y Lógico, describiendo el Protocolo con que se conectan (L2, L3, etc.), y los IP´s involucrados de los Equipos, red, etc (IP planning).
  5. Otros planos que sean necesarios para la administración de la solución.

 

    1. INFORME DE REVISIONES TECNICAS PREVENTIVAS DE SOFTWARE Y HARDWARE: Este informe deberá incluir los siguientes puntos:

 

  1. Revisión Técnica Preventiva de Software y/o Hardware.
  2. Implementación de ajustes de acuerdo a recomendaciones.
  3. Revisiones y pruebas de restauración de Backup.
  4. Recomendaciones sobre mejores prácticas en cuanto a configuraciones, nuevas funcionalidades y hardware si las hubiera.

 

    1. INFORME DE SERVICIO TECNICO O DE URGENCIA: Este informe deberá incluir los siguientes puntos:
  1. Detalle de las actividades o trabajos de urgencia de Hardware y/o software.
  2. Recomendaciones sobre mejores prácticas en cuanto a configuraciones, nuevas funcionalidades y hardware si las hubiera.

 

ESPECIFICACIONES TÉCNICAS

LOTE 1 AMPLIACION DE SOLUCIÓN HIPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

ITEM 1 SOLUCIÓN HIPERCONVERGENTE PARA ACTUALIZACIÓN DE CLUSTER NUTANIX G5

 

Nombre del Bien o Servicio Conexo

Descripción Técnica

Mínimo Exigido

Cumple /
No Cumple

 

1

CANTIDAD

2

EXIGIDO

 

 

2

MARCA

NUTANIX

EXIGIDO

 

 

3

MODELO

NX-8235N-G8-4310CM

EXIGIDO

 

 

4

FACTOR DE FORMA

Chasis para Rack standard compatible con EIA-310D

EXIGIDO

 

 

5

TAMAÑO MÁXIMO DE LA SOLUCIÓN

hasta 4U

EXIGIDO

 

 

6

ARQUITECTURA DE PROCESADORES

Tipo x86 64 bits.

EXIGIDO

 

 

7

CAPACIDAD DE PROCESAMIENTO

Mínimo 96 núcleos de 2.1 GHz con memoria caché de 18 MB o superior en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

8

CAPACIDAD DE MEMORIA

Mínimo de 4096 GB, 3200MHZ, DDR4 en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

9

CAPACIDAD DE ALMACENAMIENTO

Mínimo de 30 TB RAW en discos de estado sólido (SSD) y 192 TB RAW en discos mecánicos (HDD)en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

10

ADMINISTRACIÓN

El marco de administración debe proporcionar una interfaz de usuario gráfica intuitiva. Toda la información se debe organizar y presentar a través de áreas bien definidas con el propósito de lograr un acceso sencillo a los datos operativos. Debe ofrecer la capacidad de definir y administrar una infraestructura convergente completa desde cualquier dispositivo.

EXIGIDO

 

 

11

CONEXIÓN LAN

Módulos de interconexión Ethernet con 4 puertos 10GbE/25GbE con módulos SFP+ por cada servidor/nodo/host.

 

Se deberá contar con módulos de interconexión LAN internos al chasis, cada servidor/nodo/host con 4 puertos externos activados (SFP+) de corta o larga distancia de 10Gbps o superior.

 

La solución debe poder funcionar con cualquier switch Ethernet 10GbE/25GbE.
Todos los cables necesarios para la conexión LAN, deberán ser proveídos.

EXIGIDO

 

 

12

VENTILADORES Y FUENTES DE ALIMENTACIÓN

El sistema de ventilación (coolers) y el sistema de alimentación provisto, deberán estar preparados para soportar la instalación completa del chasis con sus bahías completas, sin producir una degradación general del sistema. Las fuentes de alimentación deberán ser redundantes.

EXIGIDO

 

 

13

ALIMENTACIÓN ELÉCTRICA

La alimentación Eléctrica de los servidores/nodos/hosts deberá ser de tipo Redundante (1+1), pudiendo ser compartida por 2 servidores/nodos/hosts, siempre que se mantenga la redundancia.

220 VOLTIOS CORRIENTE ALTERNA MONOFÁSICO

 

 

Frecuencia en Hertz

50/60

 

 

14

HERRAMIENTA / CONSOLA DE GESTIÓN O ADMINISTRACIÓN

• La interfaz de administración deber ser accedida mediante un browser y estar basada en HTML5.

• Proveer una única vista para todo el entorno manteniendo múltiples puntos de acceso.
• La consola de Administración deberá ejecutarse sobre los mismos servidores/nodos/hosts del Clúster que administra, aprovechando la tolerancia a fallos del mismo (Ej. La consola debe permanecer disponible ante la falla de cualquiera de los servidores/nodos/hosts).
• Proveer accesos alternativos basados en SSH y/o interfaces seriales remotas estilo IPMI.
• Contener autenticación LDAP, Active Directory, CAC Prompt y certificados firmados por SSL.

• Contemplar integración mediante el uso de REST API a otras soluciones de administración, a fin de facilitar la integración con ambientes de monitoreo actuales.
• Tener la capacidad de facilitar una consola gráfica, que permita visualizar los recursos utilizados por las máquinas virtuales (VM) independientemente del tipo de hipervisor.

EXIGIDO

 

 

15

ALMACENAMIENTO

La solución debe contar con un sistema de almacenamiento distribuido definida por software y proveer las siguientes funcionalidades:
• Cada servidor/nodo/host, deberá contar con su propia controladora de almacenamiento.
• Esquema de capas en forma automática (auto-tiering) entre los diferentes niveles, memoria, disco de estado sólido (SSD) y discos mecánicos (HDD) en tiempo real.
• Deduplicación en la ingesta de información, en los discos de estado sólido (SSD) y en los discos mecánicos (HDD).
• Compresión tanto en línea y en reposo.
• La solución debe soportar Erasure Coding, para mejor aprovechamiento del almacenamiento.
• Snapshots basados en punteros.
• Sistemas de clones de máquinas virtuales.
• Capacidad de usar Erasure Coding para poder hacer uso eficiente del espacio en discos mecánicos (HDD)
• Debe existir un sistema que permita que a lo largo del tiempo los datos más accedidos por una VM corriendo en cualquiera de los servidores/nodos/hosts, tengan siempre una copia en el almacenamiento del servidor/nodo/host local, de manera que la lectura pueda realizarse a velocidad local en la mayoría de los accesos. Este mecanismo debe converger y actualizarse de manera automática si la VM es movida/trasladada a otro servidor/nodo/host.
• Thin Provisioning tanto para máquinas virtuales, como a nivel de contenedor/datastore.
• Capacidad de réplica en forma sincrónica o asincrónica.
• La réplica de los datos debe poder configurarse con granularidad por Máquina Virtual (VM)
• El cluster debe poder replicar contra otro/s Cluster/s en el sitio local o en sitios remotos de manera sencilla. El oferente deberá validar los requerimientos e incluir todos los componentes y licencias que sean necesarios para que la réplica de datos entre clusters sea posible.
Adicionalmente, la solución de réplica debe de permitir replicar máquinas virtuales entre hipervisores diferentes para poder facilitar la migración de un hipervisor a otro.
El almacenamiento debe estar diseñado especialmente para ambientes virtualizados. Debe ser compatible mínimamente con Vmware, Hyper-V y AHV de Nutanix.

La arquitectura de almacenamiento debe permitir que cada servidor/nodo/host vaya integrado con una controladora para gestionar los recursos de almacenamiento en un cluster, y para todas las máquinas virtuales.  Estas controladoras deben comunicarse entre sí, permitiendo gestionar el acceso desde múltiples servidores/nodos/hosts a los datos replicados.
La solución de almacenamiento no requerirá de switches de Fibre Channel ni FCoE para su funcionamiento. Solamente utilizara IP sobre Ethernet estándar (no deberá ser obligatorio configurar características específicas como Jumbo-Frames, ni otras características especiales para lograr que el Cluster opere correctamente).
Deberá tener la capacidad de distribuir los datos adentro del cluster y adicionalmente poder replicarlos internamente, para poder asegurar su disponibilidad. El factor de réplica puede ser configurado en nodo 2 ó 3, dependiendo de la cantidad de nodos instalados.
La solución mínimamente deberá tener la capacidad de realizar respaldos a AWS (Amazon Web Services) y Microsoft Azure.

EXIGIDO

 

 
 

16

ESCALABILIDAD

Escalabilidad Proveer un crecimiento lineal, estable y predecible en su rendimiento a medida que se agreguen servidores/nodos/hosts. Soportar un crecimiento ilimitado en servidores/nodos/hosts, que incrementen la capacidad de procesamiento, memoria y almacenamiento. El clúster una vez establecido debe ser capaz de crecer de a un servidor/nodo/host por vez.
Deberá soportar crecimiento lineal con servidores/nodos/hosts heterogéneos, o de diferentes modelos para maximizar recursos de procesamiento, memoria o almacenamiento según se requiera.
Proveer la factibilidad de crecimientos modulares evitando así el sobredimensionamiento del proyecto.
El crecimiento tiene que ser en forma granular de hasta un servidor/nodo/host por vez incrementando los recursos globales de procesamiento, memoria, y almacenamiento en forma simultánea de todo el cluster y en diferentes proporciones, para poder acomodarse a los diferentes requerimientos.

EXIGIDO

 

 

17

TIPOS DE NODOS

Se debe poder integrar servidores/nodos/hosts con diferentes características que le permitan adaptarse a los requerimientos de cada una de las aplicaciones y formando un clúster mixto.
Los tipos de nodos esperados son:
•Intensivos en CPU/Memoria.
•Intensivos en Almacenamiento.
•Nodos solamente con discos SSD.

EXIGIDO

 

 

18

ALTA DISPONIBILIDAD

La infraestructura de Cómputo y Almacenamiento deberá ser distribuida y completamente definida por software, armando un clúster con las siguientes características:
• Filesystem con capacidad de recuperación ante la falla de un disco o de un servidor/nodo/host completo que forma parte de la solución.

• La protección de los datos deberá ser realizando múltiples copias de los datos en los discos pertenecientes a más de un servidor/nodo/host, de manera de garantizar que los datos sigan disponibles aún luego de la falla de algún componente o incluso la falla de un servidor/nodo/host completo (tolerancia a fallos). Esta protección de datos deberá realizarse entre los múltiples servidores/nodo/host que componen el Clúster, de manera distribuida (no estando limitado a un esquema 1+1)
o En caso de una falla, la solución basada en Software debe actuar de manera automática creando nuevas copias múltiples de los datos, de manera de mantener el nivel de protección hasta tanto se reemplace el componente que haya fallado (Auto-Saneamiento de la solución)

EXIGIDO

 

 

19

ACCESORIOS

Todos los accesorios requeridos para entregar el equipo en perfecto estado de operación (Módulos, software, patch cords, power cord, rackmount kit, etc.)

EXIGIDO

 

 

 

LOTE 1 - AMPLIACION DE SOLUCIÓN HIPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

ITEM 2 SOLUCIÓN HIPERCONVERGENTE PARA REPLICACIÓN DE CLUSTER MICROSOFT

 

Nombre del Bien o Servicio Conexo

Descripción Técnica

Mínimo Exigido

Cumple /
No Cumple

 

1

CANTIDAD

1

EXIGIDO

 

 

2

MARCA

NUTANIX

EXIGIDO

 

 

3

MODELO

NX-1365N-G8-4309YCM

EXIGIDO

 

 

4

FACTOR DE FORMA

Chasis para Rack standard compatible con EIA-310D

EXIGIDO

 

 

5

TAMAÑO MÁXIMO DE LA SOLUCIÓN

hasta 2U

EXIGIDO

 

 

6

ARQUITECTURA DE PROCESADORES

Tipo x86 64 bits.

EXIGIDO

 

 

7

CAPACIDAD DE PROCESAMIENTO

Mínimo 48 núcleos de 2.8 GHz con memoria caché de 12 MB o superior en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

8

CAPACIDAD DE MEMORIA

Mínimo de 768 GB 3200MHz DDR4 en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

9

CAPACIDAD DE ALMACENAMIENTO

Mínimo de 5,76 TB RAW en discos de estado sólido (SSD) y 36 TB RAW en discos HDD en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

10

ADMINISTRACIÓN

El marco de administración debe proporcionar una interfaz de usuario gráfica intuitiva. Toda la información se debe organizar y presentar a través de áreas bien definidas con el propósito de lograr un acceso sencillo a los datos operativos. Debe ofrecer la capacidad de definir y administrar una infraestructura convergente completa desde cualquier dispositivo.

EXIGIDO

 

 

11

CONEXIÓN LAN

Módulos de interconexión Ethernet con 4 puertos 10GbE/25GbE con módulos SFP+ por cada servidor/nodo/host.
Se deberá contar con módulos de interconexión LAN internos al chasis, cada servidor/nodo/host con 4 puertos externos activados (SFP+) de corta o larga distancia de 10Gbps/25Gbps o superior.
La solución debe poder funcionar con cualquier switch Ethernet 10GbE/25GbE.
Todos los cables necesarios para la conexión LAN, deberán ser proveídos.

EXIGIDO

 

 

12

VENTILADORES Y FUENTES DE ALIMENTACIÓN

El sistema de ventilación (coolers) y el sistema de alimentación provisto, deberán estar preparados para soportar la instalación completa del chasis con sus bahías completas, sin producir una degradación general del sistema. Las fuentes de alimentación deberán ser redundantes.

EXIGIDO

 

 

13

ALIMENTACIÓN ELÉCTRICA

La alimentación Eléctrica de los servidores/nodos/hosts deberá ser de tipo Redundante (1+1), pudiendo ser compartida por 4 servidores/nodos/hosts, siempre que se mantenga la redundancia.

220 VOLTIOS CORRIENTE ALTERNA MONOFÁSICO

 

 

Frecuencia en Hertz

50/60

 

 

14

HERRAMIENTA / CONSOLA DE GESTIÓN O ADMINISTRACIÓN

• La interfaz de administración deber ser accedida mediante un browser y estar basada en HTML5.

• Proveer una única vista para todo el entorno manteniendo múltiples puntos de acceso.
• La consola de Administración deberá ejecutarse sobre los mismos servidores/nodos/hosts del Clúster que administra, aprovechando la tolerancia a fallos del mismo (Ej. La consola debe permanecer disponible ante la falla de cualquiera de los servidores/nodos/hosts).
• Proveer accesos alternativos basados en SSH y/o interfaces seriales remotas estilo IPMI.
• Contener autenticación LDAP, Active Directory, CAC Prompt y certificados firmados por SSL.

• Contemplar integración mediante el uso de REST API a otras soluciones de administración, a fin de facilitar la integración con ambientes de monitoreo actuales.
• Tener la capacidad de facilitar una consola gráfica, que permita visualizar los recursos utilizados por las máquinas virtuales (VM) independientemente del tipo de hipervisor.

EXIGIDO

 

 

15

ALMACENAMIENTO

La solución debe contar con un sistema de almacenamiento distribuido definida por software y proveer las siguientes funcionalidades:
• Cada servidor/nodo/host, deberá contar con su propia controladora de almacenamiento.
• Esquema de capas en forma automática (auto-tiering) entre los diferentes niveles, memoria, disco de estado sólido (SSD) y discos mecánicos (HDD) en tiempo real.
•Deduplicación en la ingesta de información, en los discos de estado sólido (SSD) y en los discos mecánicos (HDD).
• Compresión tanto en línea y en reposo.
• La solución debe soportar Erasure Coding, para mejor aprovechamiento del almacenamiento.
•Snapshots basados en punteros.
• Sistemas de clones de máquinas virtuales.
• Capacidad de usar Erasure Coding para poder hacer uso eficiente del espacio en discos mecánicos (HDD)

• Debe existir un sistema que permita que a lo largo del tiempo los datos más accedidos por una VM corriendo en cualquiera de los servidores/nodos/hosts, tengan siempre una copia en el almacenamiento del servidor/nodo/host local, de manera que la lectura pueda realizarse a velocidad local en la mayoría de los accesos. Este mecanismo debe converger y actualizarse de manera automática si la VM es movida/trasladada a otro servidor/nodo/host.
• Thin Provisioning tanto para máquinas virtuales, como a nivel de contenedor/datastore.
• Capacidad de réplica en forma sincrónica o asincrónica.

• La réplica de los datos debe poder configurarse con granularidad por Máquina Virtual (VM).

• El clúster debe poder replicar contra otro/s Clúster/s en el sitio local o en sitios remotos de manera sencilla. El oferente deberá validar los requerimientos e incluir todos los componentes y licencias que sean necesarios para que la réplica de datos entre clúster sea posible.

Adicionalmente, la solución de réplica debe de permitir replicar máquinas virtuales entre hipervisores diferentes para poder facilitar la migración de un hipervisor a otro.
El almacenamiento debe estar diseñado especialmente para ambientes virtualizados. Debe ser compatible mínimamente con VMware, Hyper-V y AHV de Nutanix.

La arquitectura de almacenamiento debe permitir que cada servidor/nodo/host vaya integrado con una controladora para gestionar los recursos de almacenamiento en un clúster, y para todas las máquinas virtuales.  Estas controladoras deben comunicarse entre sí, permitiendo gestionar el acceso desde múltiples servidores/nodos/hosts a los datos replicados.
La solución de almacenamiento no requerirá de switches de Fibre Channel ni FCoE para su funcionamiento. Solamente utilizara IP sobre Ethernet estándar (no deberá ser obligatorio configurar características específicas como Jumbo-Frames, ni otras características especiales para lograr que el Clúster opere correctamente).
Deberá tener la capacidad de distribuir los datos adentro del clúster y adicionalmente poder replicarlos internamente, para poder asegurar su disponibilidad. El factor de réplica puede ser configurado en nodo 2 ó 3, dependiendo de la cantidad de nodos instalados.
La solución mínimamente deberá tener la capacidad de realizar respaldos a AWS (Amazon Web Services) y Microsoft Azure.

EXIGIDO

 

 
 

16

ESCALABILIDAD

Escalabilidad Proveer un crecimiento lineal, estable y predecible en su rendimiento a medida que se agreguen servidores/nodos/hosts. Soportar un crecimiento ilimitado en servidores/nodos/hosts, que incrementen la capacidad de procesamiento, memoria y almacenamiento. El clúster una vez establecido debe ser capaz de crecer de a un servidor/nodo/host por vez.

Deberá soportar crecimiento lineal con servidores/nodos/hosts heterogéneos, o de diferentes modelos para maximizar recursos de procesamiento, memoria o almacenamiento según se requiera.

Proveer la factibilidad de crecimientos modulares evitando así el sobredimensionamiento del proyecto.

El crecimiento tiene que ser en forma granular de hasta un servidor/nodo/host por vez incrementando los recursos globales de procesamiento, memoria, y almacenamiento en forma simultánea de todo el cluster y en diferentes proporciones, para poder acomodarse a los diferentes requerimientos.

EXIGIDO

 

 

17

TIPOS DE NODOS

Se debe poder integrar servidores/nodos/hosts con diferentes características que le permitan adaptarse a los requerimientos de cada una de las aplicaciones y formando un clúster mixto.
Los tipos de nodos esperados son:
•Intensivos en CPU/Memoria.

•Intensivos en Almacenamiento.

•Nodos solamente con discos SSD.

EXIGIDO

 

 

18

ALTA DISPONIBILIDAD

La infraestructura de Cómputo y Almacenamiento deberá ser distribuida y completamente definida por software, armando un clúster con las siguientes características:
• Filesystem con capacidad de recuperación ante la falla de un disco o de un servidor/nodo/host completo que forma parte de la solución.

• La protección de los datos deberá ser realizando múltiples copias de los datos en los discos pertenecientes a más de un servidor/nodo/host, de manera de garantizar que los datos sigan disponibles aún luego de la falla de algún componente o incluso la falla de un servidor/nodo/host completo (tolerancia a fallos).

o Esta protección de datos deberá realizarse entre los múltiples servidor/nodo/host que componen el Clúster, de manera distribuida  (no estando limitado a un esquema 1+1)
o En caso de una falla, la solución basada en Software debe actuar de manera automática creando nuevas copias múltiples de los datos, de manera de mantener el nivel de protección hasta tanto se reemplace el componente que haya fallado (Auto-Saneamiento de la solución)

EXIGIDO

 

 

19

ACCESORIOS

Todos los accesorios requeridos para entregar el equipo en perfecto estado de operación (Módulos, software, patch cords, power cord, rackmount kit, etc.)

EXIGIDO

 

 

 

LOTE 1 - AMPLIACION DE SOLUCIÓN HIPERCONVERGENTE PARA SERVICIOS DE LA DGIC

 

ITEM 3 AMPLIACIÓN DE CLUSTER NUTANIX SITIO DE CONTINGENCIA

 

Nombre del Bien o Servicio Conexo

Descripción Técnica

Mínimo Exigido

Cumple /
No Cumple

 

1

CANTIDAD

1

Exigido

 

 

2

MARCA

Nutanix

Exigido

 

 

3

MODELO

NX-8135N-G8-6334CM

Exigido

 

 

4

FACTOR DE FORMA

Chasis para Rack standard compatible con EIA-310D

EXIGIDO

 

 

5

TAMAÑO MÁXIMO DE LA SOLUCIÓN

hasta 2U

EXIGIDO

 

 

6

ARQUITECTURA DE PROCESADORES

Tipo x86 64 bits.

EXIGIDO

 

 

7

CAPACIDAD DE PROCESAMIENTO

Mínimo 16 núcleos de 3.6 GHz con memoria caché de 18 MB o superior en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

8

CAPACIDAD DE MEMORIA

Mínimo de 128 GB, 3200MHz, DDR4 en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

9

CAPACIDAD DE ALMACENAMIENTO

Mínimo de 3,84 TB RAW en discos de estado sólido (SSD) y 48 TB RAW en discos de capacidad (HDD) en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

 

 

10

ADMINISTRACIÓN

El marco de administración debe proporcionar una interfaz de usuario gráfica intuitiva. Toda la información se debe organizar y presentar a través de áreas bien definidas con el propósito de lograr un acceso sencillo a los datos operativos. Debe ofrecer la capacidad de definir y administrar una infraestructura convergente completa desde cualquier dispositivo.

EXIGIDO

 

 

11

CONEXIÓN LAN

Módulos de interconexión Ethernet con 4 puertos 10GbE con módulos SFP+ por cada servidor/nodo/host.
Se deberá contar con módulos de interconexión LAN internos al chasis, cada servidor/nodo/host con 4 puertos externos activados (SFP+) de corta o larga distancia de 10Gbps o superior.

La solución debe poder funcionar con cualquier switch Ethernet 10GbE.
Todos los cables necesarios para la conexión LAN, deberán ser proveídos.

EXIGIDO

 

 

12

VENTILADORES Y FUENTES DE ALIMENTACIÓN

El sistema de ventilación (coolers) y el sistema de alimentación provisto, deberán estar preparados para soportar la instalación completa del chasis con sus bahías completas, sin producir una degradación general del sistema. Las fuentes de alimentación deberán ser redundantes.

EXIGIDO

 

 

13

ALIMENTACIÓN ELÉCTRICA

La alimentación Eléctrica de los servidores/nodos/hosts deberá ser de tipo Redundante (1+1), pudiendo ser compartida por 2 servidores/nodos/hosts, siempre que se mantenga la redundancia.

220 VOLTIOS CORRIENTE ALTERNA MONOFÁSICO

 

 

Frecuencia en Hertz

50/60

 

 

14

HERRAMIENTA / CONSOLA DE GESTIÓN O ADMINISTRACIÓN

• La interfaz de administración deber ser accedida mediante un browser y estar basada en HTML5.

• Proveer una única vista para todo el entorno manteniendo múltiples puntos de acceso.
• La consola de Administración deberá ejecutarse sobre los mismos servidores/nodos/hosts del Clúster que administra, aprovechando la tolerancia a fallos del mismo (Ej. La consola debe permanecer disponible ante la falla de cualquiera de los servidores/nodos/hosts).
• Proveer accesos alternativos basados en SSH y/o interfaces seriales remotas estilo IPMI.
• Contener autenticación LDAP, Active Directory, CAC Prompt y certificados firmados por SSL.

• Contemplar integración mediante el uso de REST API a otras soluciones de administración, a fin de facilitar la integración con ambientes de monitoreo actuales.
• Tener la capacidad de facilitar una consola gráfica, que permita visualizar los recursos utilizados por las máquinas virtuales (VM) independientemente del tipo de hipervisor.

EXIGIDO

 

 

15

ALMACENAMIENTO

La solución debe contar con un sistema de almacenamiento distribuido definida por software y proveer las siguientes funcionalidades:
• Cada servidor/nodo/host, deberá contar con su propia controladora de almacenamiento.
• Esquema de capas en forma automática (auto-tiering) entre los diferentes niveles, memoria, disco de estado sólido (SSD) y discos mecánicos (HDD) en tiempo real.
• Deduplicación en la ingesta de información, en los discos de estado sólido (SSD) y en los discos mecánicos (HDD).
• Compresión tanto en línea y en reposo.
• La solución debe soportar Erasure Coding, para mejor aprovechamiento del almacenamiento.
• Snapshots basados en punteros.
• Sistemas de clones de máquinas virtuales.
• Capacidad de usar Erasure Coding para poder hacer uso eficiente del espacio en discos mecánicos (HDD).

• Debe existir un sistema que permita que a lo largo del tiempo los datos más accedidos por una VM corriendo en cualquiera de los servidores/nodos/hosts, tengan siempre una copia en el almacenamiento del servidor/nodo/host local, de manera que la lectura pueda realizarse a velocidad local en la mayoría de los accesos. Este mecanismo debe converger y actualizarse de manera automática si la VM es movida/trasladada a otro servidor/nodo/host.

• Thin Provisioning tanto para máquinas virtuales, como a nivel de contenedor/datastore.
• Capacidad de réplica en forma sincrónica o asincrónica.

• La réplica de los datos debe poder configurarse con granularidad por Máquina Virtual (VM).

• El clúster debe poder replicar contra otro/s Clúster/s en el sitio local o en sitios remotos de manera sencilla. El oferente deberá validar los requerimientos e incluir todos los componentes y licencias que sean necesarios para que la réplica de datos entre clúster sea posible.

Adicionalmente, la solución de réplica debe de permitir replicar máquinas virtuales entre hipervisores diferentes para poder facilitar la migración de un hipervisor a otro.
El almacenamiento debe estar diseñado especialmente para ambientes virtualizados. Debe ser compatible mínimamente con Vmware,  Hyper-V y AHV de Nutanix.

La arquitectura de almacenamiento debe permitir que cada servidor/nodo/host vaya integrado con una controladora para gestionar los recursos de almacenamiento en un clúster, y para todas las máquinas virtuales.  Estas controladoras deben comunicarse entre sí, permitiendo gestionar el acceso desde múltiples servidores/nodos/hosts a los datos replicados.
La solución de almacenamiento no requerirá de switches de Fibre Channel ni FCoE para su funcionamiento. Solamente utilizara IP sobre Ethernet estándar (no deberá ser obligatorio configurar características específicas como Jumbo-Frames, ni otras características especiales para lograr que el Clúster opere correctamente).
Deberá tener la capacidad de distribuir los datos adentro del clúster y adicionalmente poder replicarlos internamente, para poder asegurar su disponibilidad. El factor de réplica puede ser configurado en nodo 2 ó 3, dependiendo de la cantidad de nodos instalados.
La solución mínimamente deberá tener la capacidad de realizar respaldos a AWS (Amazon Web Services) y Microsoft Azure.

EXIGIDO

 

 
 

16

ESCALABILIDAD

Escalabilidad Proveer un crecimiento lineal, estable y predecible en su rendimiento a medida que se agreguen servidores/nodos/hosts. Soportar un crecimiento ilimitado en servidores/nodos/hosts, que incrementen la capacidad de procesamiento, memoria y almacenamiento. El clúster una vez establecido debe ser capaz de crecer de a un servidor/nodo/host por vez.

Deberá soportar crecimiento lineal con servidores/nodos/hosts heterogéneos, o de diferentes modelos para maximizar recursos de procesamiento, memoria o almacenamiento según se requiera.
Proveer la factibilidad de crecimientos modulares evitando así el sobredimensionamiento del proyecto.

El crecimiento tiene que ser en forma granular de hasta un servidor/nodo/host por vez incrementando los recursos globales de procesamiento, memoria, y almacenamiento en forma simultánea de todo el clúster y en diferentes proporciones, para poder acomodarse a los diferentes requerimientos.

EXIGIDO

 

 

17

TIPOS DE NODOS

Se debe poder integrar servidores/nodos/hosts con diferentes características que le permitan adaptarse a los requerimientos de cada una de las aplicaciones y formando un clúster mixto.
Los tipos de nodos esperados son:
•Intensivos en CPU/Memoria.

•Intensivos en Almacenamiento.

•Nodos solamente con discos SSD.

EXIGIDO

 

 

 

 

 

 

 

 

 

18

ALTA DISPONIBILIDAD

La infraestructura de Cómputo y Almacenamiento deberá ser distribuida y completamente definida por software, armando un clúster con las siguientes características:
• Filesystem con capacidad de recuperación ante la falla de un disco o de un servidor/nodo/host completo que forma parte de la solución.

• La protección de los datos deberá ser realizando múltiples copias de los datos en los discos pertenecientes a más de un servidor/nodo/host, de manera de garantizar que los datos sigan disponibles aún luego de la falla de algún componente o incluso la falla de un servidor/nodo/host completo (tolerancia a fallos).

o Esta protección de datos deberá realizarse entre los múltiples servidores/nodo/host que componen el Clúster, de manera distribuida (no estando limitado a un esquema 1+1)

o En caso de una falla, la solución basada en Software debe actuar de manera automática creando nuevas copias múltiples de los datos, de manera de mantener el nivel de protección hasta tanto se reemplace el componente que haya fallado (Auto-Saneamiento de la solución)

EXIGIDO

 

 

19

ACCESORIOS

Todos los accesorios requeridos para entregar el equipo en perfecto estado de operación (Módulos, software, patch cords, power cord, rackmount kit, etc.)

EXIGIDO

 

 

 

ANEXO 1 MODELOS DE NOTAS PARA EJECUCION DE PROYECTO

 

MODELO DE INFORME DE REVISIONES TECNICAS Y ACTUALIZACIONES

 

INFORME TÉCNICO DE REVISIONES TECNICAS Y ACTUALIZACIONES

 

PARA                            :                  MINISTERIO DE HACIENDA DGIC

 

ATENCION                  :                  {NOMBRE DEL DIRECTOR GENERAL DE LA DGIC}

 

FECHA                          :                  {FECHA}

 

ASUNTO  :                  Mantenimiento y Actualización de Equipamiento Incluido en la {COD. PROCESO LICITATORIO - MH N° CONTRATO - DESCRIPCIÓN DEL PROCESO LICITATORIO ID N° CONTRATACIONES}    

 

 

  1. LISTA DE EQUIPAMIENTO INVOLUCRADO EN EL RELEVAMIENTO

 

DESCRIPCIÓN DE EQUIPAMIENTO

N° SERIE

EQUIPO 1 {NOMBRE DE EQUIPO}

 

EQUIPO N {NOMBRE DE EQUIPO}

 

 

  1. DESCRIPCION DEL TRABAJO

 

EQUIPO 1 {NOMBRE DE EQUIPO}

 

Se realizó la actualización del equipo {NOMBRE DE EQUIPO} denominado como {función del equipo} de la versión {VERSIÓN ACTUAL} se migró a la versión {VERSIÓN RECOMENDADA}.

 

El equipo se encontraba de la siguiente manera:

{IMPRESIONES DE PANTALLA}

 

Por último se realizó el salto a la version deseada, el equipo quedo con la versión que se observa:

{IMPRESIONES DE PANTALLA}

 

  1. OBSERVACIONES

 

{Si durante los trabajos de mantenimiento y actualización hubo imprevistos y/o problemas se deberán detallar las observaciones al respecto}

 

  1. IMPACTO DEL TRABAJO DE ACTUALIZACION

 

Para la realización de los trabajos (SERA NECESARIO / NO SERÁ NECESARIO) el reinicio de los equipos por lo tanto (SE VERAN / NO SE VERAN) afectados los servicios de conectividad.                       

 

  1. TECNICO RESPONSABLE

 

Este informe fue elaborado por {Nombre y Apellido del Técnico}

 

 

MODELO DE NOTA PARA PRESENTACIÓN DE CRONOGRAMA DE ACTIVIDADES

                                                                     Asunción, {FECHA}

Sres.

Ministerio de Hacienda

Dirección General de Informática y Comunicaciones

{NOMBRE DEL DIRECTOR GENERAL DE LA DGIC}

PRESENTE

 

Ref.: {COD. PROCESO LICITATORIO - MH N° CONTRATO - DESCRIPCIÓN DEL PROCESO LICITATORIO ID N° CONTRATACIONES}

 

Nos dirigimos a usted respecto a la Licitación de referencia a fin de presentar la siguiente propuesta de cronograma para cumplir con lo acordado en el Contrato N° {NUMERO DE CONTRATO} mencionado:

 

CRONOGRAMA TENTATIVO DE ACTIVIDADES

DIA 1

FECHA 1

DIA 2

FECHA 2

DIA N

FECHA N

DIA N+1

FECHA N+1

DESCRIPCIÓN DETALLADA DE ACTIVIDAD 1

 

 

 

 

DESCRIPCIÓN DETALLADA DE ACTIVIDAD 2

 

 

 

 

DESCRIPCIÓN DETALLADA DE ACTIVIDAD N

 

 

 

 

Presentación de Informe final de los trabajos

 

 

 

 

 

LISTA DE EQUIPOS Y/O INFRAESTRUCTURA INVOLUCRADA EN EL CRONOGRAMA

 

DESCRIPCIÓN DE EQUIPAMIENTO

N° SERIE

EQUIPO 1 {NOMBRE DE EQUIPO}

 

EQUIPO 2 {NOMBRE DE EQUIPO}

 

EQUIPO N {NOMBRE DE EQUIPO}

 

 

LISTA DE INFRAESTRUCTURA INVOLUCRADA EN EL CRONOGRAMA

 

DESCRIPCIÓN DE INFRAESCTRUCTURA

OBSERVACIONES

RED LOCAL DE {NOMBRE DE DEPENDENCIA}

 

DEPENDENCIA MH {NOMBRE DE DEPENDENCIA}

 

NODO DE LA RMSP {NOMBRE DE DEPENDENCIA}

 

NOMBRE DE OEE

 

 

LISTA DE TECNICOS

 

NOMBRE Y APELLIDO

N° CEDULA

 

 

 

 

 

EQUIPAMIENTO O HERRAMIENTA PARA REALIZACIÓN DE TRABAJOS

 

DESCRIPCIÓN DE EQUIPAMIENTO Y/O HERRAMIENTA

N° DE SERIE

 

 

 

 

 

 

MODELO DE INFORME TECNICO DE RELEVAMIENTO

 

INFORME TÉCNICO DE RELEVAMIENTO

 

PARA                            :                  MINISTERIO DE HACIENDA DGIC

 

ATENCION                  :                  {NOMBRE DEL DIRECTOR GENERAL DE LA DGIC}

 

FECHA                          :                  {FECHA}

 

ASUNTO  :                  Relevamiento de la {COD. PROCESO LICITATORIO - MH N° CONTRATO - DESCRIPCIÓN DEL PROCESO LICITATORIO ID N° CONTRATACIONES}               

 

 

  1. LISTA DE EQUIPAMIENTO INVOLUCRADO EN EL RELEVAMIENTO

 

DESCRIPCIÓN DE EQUIPAMIENTO

N° SERIE

EQUIPO 1 {NOMBRE DE EQUIPO}

 

EQUIPO N {NOMBRE DE EQUIPO}

 

 

  1. ESTADO ACTUAL DE EQUIPOS

 

EQUIPO 1 {NOMBRE DE EQUIPO}

SOFTWARE

VERSION ACTUAL

VERSION RECOMENDADA

OBSERVACIONES

{descripción completa del software}

{descripción completa del software}

{Se deberá describir las nuevas funcionalidades y/o bugs que soluciona la nueva versión}

 

{IMPRESIONES DE PANTALLA}

 

EQUIPO N {NOMBRE DE EQUIPO}

SOFTWARE

VERSION ACTUAL

VERSION RECOMENDADA

OBSERVACIONES

{descripción completa del software}

{descripción completa del software}

{Se deberá describir las nuevas funcionalidades y/o bugs que soluciona la nueva versión}

 

{IMPRESIONES DE PANTALLA}

 

  1. TIEMPO ESTIMADO DE TRABAJOS

 

El tiempo estimado para realizar este trabajo de actualización y mantenimiento de los equipos es de X horas.

 

  1. IMPACTO DEL TRABAJO DE ACTUALIZACION

 

Para la realización de los trabajos (SERA NECESARIO / NO SERÁ NECESARIO) el reinicio de los equipos por lo tanto (SE VERAN / NO SE VERAN) afectados los servicios de conectividad.                       

 

  1. TECNICO RESPONSABLE

Este informe fue elaborado por {Nombre y Apellido del Técnico}

 

 

MODELO DE FORMULARIO DE CAMBIO DE INFRAESTRUCTURA

 

 

  1. ANTECEDENTE DEL PROCESO LICITATORIO Y/O CONTRACTUAL

 

Descripción

Detalle

1

PROCESO LICITATORIO

 

2

CONTRATO

 

3

EMPRESA ADJUDICADA

 

 

  1. LISTA DE EQUIPOS

 

Descripción de Equipamiento

Número de Serie

Estado

 

 

 

 

 

 

 

  1. ESTADO ACTUAL (Revisión del estado de salud de los equipos)

 

  •  
  •  
  •  

 

  1. RECOMENDACIÓN (Que se cambia)

 

  •  
  •  
  •  

 

  1. JUSTIFICACIÓN DEL CAMBIO

 

  •  
  •  
  •  

 

  1. PROBLEMAS QUE SE RESOLVERAN CON EL CAMBIO

 

  •  
  •  
  •  

 

  1. RESPONSABLES DEL CAMBIO

 

  •  
  •  
  •  

 

  1. IMPACTO DE LOS TRABAJOS A REALIZAR (Impacto del cambio)

 

  •  
  •  
  •  

 

  1. ANALISIS DE RIESGO

 

RIESGO:

  •  
  •  

 

EQUIPO

TIEMPO

IMPACTO

OBSERVACION

 

 

 

 

 

 

 

 

 

  1. CONFIGURACION PASO A PASO

 

  •  
  •  
  •  
  •  

 

  1. MECANISMO DE PRUEBA

 

  •  
  •  
  •  

 

  1. PROCEDIMIENTO DE RESTABLECIMIENTO

 

  •  
  •  
  •  

 

Detalles de los productos y/ servicios con las respectivas especificaciones técnicas - CPS

Los productos y/o servicios a ser requeridos cuentan con las siguientes especificaciones técnicas:

DATOS PARA MODELO DE CONTRATO

  1. VIGENCIA DEL CONTRATO

Este contrato tendrá de vigencia hasta el cumplimiento total de las obligaciones.

El plazo de prestación del servicio será por el periodo de:

LOTE 1 = 36 (treinta y seis) meses

El sistema de adjudicación será por el Total.

  1. PLAZO, LUGAR Y CONDICIONES DE LA PROVISION DE BIENES

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

El plazo máximo de entrega del INFORME DE IMPLEMENTACIÓN es de 120 (cierto veinte) días corridos, contados a partir del día hábil siguiente a la recepción de la Orden de Compra por parte de la CUOC.

El plazo máximo de entrega de los INFORME DE REVISIONES TECNICAS PREVENTIVAS es de 30 (treinta) días corridos, contados a partir de la aprobación del cronograma de actividades por parte de la DGIC.

El plazo máximo de entrega de los INFORME DE SERVICIO TECNICO O DE URGENCIA es de 30 (treinta) días corridos, contados a partir de la resolución del problema.

  1. FORMA DE PAGO

Las condiciones de pago al Proveedor en virtud del Contrato serán las siguientes:

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

% Contrato

DOCUMENTO REQUERIDO

50% del Contrato. A los 120 días corridos, contados a partir del día hábil siguiente de la recepción de la OC, por parte del proveedor

INFORME DE IMPLEMENTACIÓN: APROBADO.

25% del Contrato. Al segundo año de la vigencia del contrato.

2do. INFORME DE REVISIONES TECNICAS PREVENTIVAS DE SOFTWARE Y HARDWARE: APROBADO

25% del Contrato. A tercer año de la vigencia del Contrato

3er. INFORME DE REVISIONES TECNICAS PREVENTIVAS DE SOFTWARE Y HARDWARE: APROBADO

El pago se realizará en base a los productos esperados e informes de trabajos realizados los cuales deberán ser aprobados por la Dirección General de Informática y Comunicaciones para su posterior remisión a la Dirección Administrativa para la prosecución de los trámites administrativos.

  1. ADMINISTRACIÓN DEL CONTRATO

El encargado de realizar la conformidad de los bienes y servicios a ser proveídos es el Departamento de Infraestructura de TI (Teléf.: +595 21 492455 email: diti@hacienda.gov.py).

La conformidad final será aprobada por la Coordinación de Operaciones de TIC y la DGIC.

ESPECIFICACIONES TÉCNICAS Y SUMINISTROS REQUERIDOS

  1. LISTA DE BIENES

ITEM/ LOTE/ITEM

DESCRIPCIÓN

UNIDAD DE MEDIDA

PRESENTACIÓN

CANTIDAD

AMPLIACION DE SOLUCIÓN HIPERCONVERGENTE PARA SERVICIOS DE LA DGIC

1.1

SOLUCIÓN HIPERCONVERGENTE PARA ACTUALIZACIÓN DE CLUSTER NUTANIX G5

UNIDAD

UNIDAD

12

1.2

SOLUCIÓN HIPERCONVERGENTE PARA REPLICACIÓN DE CLUSTER MICROSOFT

UNIDAD

UNIDAD

1

1.3

AMPLIACIÓN DE CLUSTER NUTANIX SITIO DE CONTINGENCIA

UNIDAD

UNIDAD

1

  1. DISEÑO LOGICO DE LA SOLUCIÓN

OBSERVACIÓN: LAS IMAGENES CORRESPONDIENTES A ESTE PUNTO, SE ENCUENTRAN COMO ACLARACIÓN, DADO QUE EL PLIEGO ELECTRÓNICO NO PERMITE INSERTAR IMAGENES.

  1. INTRODUCCIÓN

La Dirección General de Informática y Comunicaciones (DGIC) dependiente de la Subsecretaría de Estado de Administración Financiera (SSEAF) del Ministerio de Hacienda se encuentra encarando en la actualidad la actualización tecnológica del equipamiento de Servidores Hyperconvergentes para soportar los nuevos requerimientos entre los que podemos citar la Reingeniería del Sistema Integrado de Administración de Recursos del Estado (SIARE), en reemplazo del equipamiento actualmente en producción el cual ya fue declarado en obsolescencia por el fabricante de los mismos.

  1. ANTECEDENTES Y JUSTIFICACIÓN

La Dirección General de Informática y de Comunicaciones, en el marco de sus funciones definidas por el Articulo 81 de la Ley N° 1535/99 De Administración Financiera del Estado adquirió una infraestructura Hyperconvergente (HCI) en diferentes llamados desde el año 2017 para el acceso eficiente a los sistemas y subsistemas del SIARE que administra en su Data Center y que disponibiliza a los diferentes Organismos y Entidades del Estado (OEE) mediante la Red Metropolitana del Sector Público.

El equipamiento actual fue adquirido en varios procesos licitatorios desde el año 2017 y renovándose en su garantía hasta el año 2022 cuando los mismos fueron declarados EoL y EoS (Fin de vida útil y soporte) por parte de la Marca NUTANIX como se puede observar en la página del fabricante: https://portal.nutanix.com/page/documents/eol/list?%20type=announcement.

  1. OBJETIVOS

El Objetivo principal de este proyecto es complementar el equipamiento actual de la solución de hyperconvergencia para el Data Center principal de la DGIC y de contingencia del Ministerio de Hacienda basado en un diseño Multi-Pod ó Data Center extendido distribuyendo equipamiento crítico en ambos Data Center en una configuración de Alta Disponibilidad (HA) para el 100% de los servicios. De la misma forma es indispensable fortalecer el equipamiento actual de la solución Bases de Datos del SIARE para el Data Center principal de la DGIC y de contingencia del Ministerio de Hacienda basado en un diseño Activo-Pasivo. En este contexto se requiere del soporte para brindar soluciones inmediatas ante posibles problemas y garantizar la disponibilidad en un 99,9% para las 229 entidades.

El segundo objetivo de este proyecto es alinear los equipos, licencias y servicios a una hoja de ruta que incluya tecnologías que permitan múltiples dominios de servicios y funcionalidades de IaaS (Infraestructura como servicio) a través del uso de tecnologías de virtualización de networking, software de automatización y herramientas de orquestación que permitan correr los servicios independientemente de dónde estén siendo ejecutados (Datacenter 1 o 2 o una nube pública/híbrida/privada) manteniendo las mismas políticas tanto de funcionamiento, seguridad y calidad de servicio.

En resumen, proporcionar la infraestructura tecnológica al DATA CENTER de la DGIC para soportar los nuevos requerimientos que demanda el proyecto de reingeniería del SIARE con la capacidad de soportar toda la carga que demanda las OEE, Gobernaciones y Municipalidades que se conectan al Sistema Integrado de Administración de Recursos del Estado (SIARE).

  1. JUSTIFICATIVO PARA LLAMADO

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

Dadas las características de los equipos adquiridos en los procesos para la implementación de la solución hiperconvergente de la marca NUTANIX para el Data Center en el Sitio Principal como en el de Contingencia se tiene previsto ampliar esta tecnología para lograr una Alta Disponibilidad (HA) de servicios. En este sentido, y a fin de seguir manteniendo una infraestructura y arquitectura estándar se requiere que la ampliación de la solución, minimizando de esta forma riesgos de incompatibilidad o problemas de integración entre distintos fabricantes. La DGIC considera que esta etapa de ampliación debe ser ejecutada en el marco de dependencia tecnológica por los siguientes motivos:

  1. El 100% del equipamiento de la plataforma hyperconvergente instalada (1ra etapa y 2da etapa del Proyecto) en el Data Center Principal de la DGIC y Sitio de Contingencia son de la marca NUTANIX. La implementación lógica de esta ampliación requiere interconectar e interactuar bajos los mismos criterios de configuración, tipo de soporte y garantías hoy operativos.

  1. Los equipos requeridos deben interactuar de forma transparente con los existentes con los mismos criterios de resiliencia y eficiencia; por lo que es indispensable adquirir equipos homologados por el fabricante para poder conformar los esquemas de Alta disponibilidad en toda la arquitectura de ambos Data Center de la DGIC (Sitio Principal y Contingencia).

  1. Es necesario garantizar la continuidad de los servicios durante el proceso de despliegue e implementación, por lo cual las tecnologías y protocolos deben ser los mismos.

  1. LA DGIC posee un plantel de técnicos profesionales estable y con conocimiento técnico adquirido a través de capacitaciones, entrenamientos y constante actualización en el manejo y administración de los equipos NUTANIX. Este Know How hace posible que la DGIC gestione de forma autónoma acciones de administración y monitoreo de la solución hoy implementada.

  1. Entendemos que se podrá realizar una licitación pública competitiva ya que en nuestro país, existen representante directos de la marca de referencia y varios integradores con técnicos certificados permanentemente en su staff, lo que finalmente garantiza la continuidad de los servicios de post venta local, y la existencia suficiente de soporte calificado y certificado directamente por el fabricante, así como disponibilidad de partes para minimizar en gran medida, posibles puntos críticos de falla que puedan afectar los servicios críticos que ofrece la DGIC.

Como antecedente se detallan los procesos en los cuales se adquirió la solución NUNATIX, la extensión de garantía y soporte de la misma hasta el año 2022:

  • Contrato MH N° 139/17 - LPN N° 15/17 - ID N° 328.546 - Actualización de Infraestructura para Reingeniería del SIARE 1ra Etapa
    • Solución de cómputo y almacenamiento Hyperconvergente para la ampliación del ambiente de virtualización del SIARE
  • Contrato MH N° 096/19 - LPN SBE N° 13/19 - ID 361.345 - Actualización de Infraestructura para Reingeniería del SIARE 2da Etapa
    • Ampliación de Solución Hyperconvergente de Servicios
    • Ampliación de Solución Hyperconvergente para Directorio Activo

  1. ALCANCE DE LOS SERVICIOS

    1. Vigencia del Contrato: Hasta el cumplimiento total de las obligaciones

    1. Sistema de adjudicación: Será por el LOTE.

    1. Tipo de Servicio: PROVISION DE EQUIPAMIENTO.

    1. Plazo de prestación: Será por el periodo de 36 (treinta y seis) meses LOTE 1

    1. Nivel de Soporte: LOTE 1

Del fabricante tipo 24X7 por un periodo de 36 meses

Del oferente tipo 24X7 por un periodo de 36 meses

    1. Tipo y Alcance de la Garantía:

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

La Garantía Extendida debe ser del Fabricante y Soporte técnico del Oferente. La garantía debe incluir el soporte técnico para atención de Hardware y Software, Mano de Obra y Repuestos (cualquier daño de componentes de los equipos deberá ser cambiado) incluyendo traslado de los equipos de la oficina del cliente al proveedor y viceversa a cargo del proveedor.

La garantía debe incluir el servicio completo de mantenimiento preventivo: suministro de nuevas versiones (releases) y reparaciones (generalmente denominadas como patches, temporary fixes, APARs, Bugs, etc.). Estos mantenimientos se realizarán cada 12 meses durante la vigencia del contrato

    1. En caso de necesidad la posibilidad de acceso directo al Centro Asistencial de la marca con intermediación para resolución o apertura de casos.
    2. Se deberá proveer un usuario para acceder al sistema de apertura y seguimiento de casos del Oferente/fabricante.

    1. Periodo de Valides de la Garantía de los bienes:

Será de 36 meses a partir de la recepción de la solución por parte de la DGIC (LOTE 1).

    1. Tiempo de funcionamiento de los bienes:

Será de 36 meses a partir de la recepción de la solución por parte de la DGIC (LOTE 1).

    1. Plazo de reposición de bienes: Reemplazo avanzado de hardware en caso de fallas, será como máximo de 24 horas, a partir de la fecha y hora de solicitud. En caso que el reemplazo del componente dañado implique la indisponibilidad del equipo por más de 24 horas, el proveedor suministrará otro equipo mientras dure la recepción del nuevo componente del mismo

El proveedor garantiza que todos los bienes suministrados están libres de defectos derivados de actos y omisiones que este hubiera incurrido, o derivados del diseño, materiales o manufactura, durante el uso normal de los bienes en las condiciones que imperen en la República del Paraguay.

La Contratante comunicará al proveedor la naturaleza de los defectos y proporcionará toda evidencia disponible, inmediatamente después de haberlos descubierto. La contratante otorgará al proveedor facilidades razonables para inspeccionar tales defectos.

Tan pronto reciba esta comunicación, y dentro del plazo establecido en este apartado, deberá reparar o reemplazar los bienes defectuosos, o sus partes sin ningún costo para la contratante.

    1. Soporte Técnico in-situ: Asistencia técnica in-situ a pedido de la contratante, atención a las alertas y a los reclamos con un tiempo de respuesta no mayor a una (2) horas después de comunicado el inconveniente.

    1. Lugar de trabajo:

Ministerio de Hacienda Dirección General de Informática y Comunicaciones.

Ministerio de Hacienda Data Center de Contingencia.

    1. Horario del servicio: El Servicio deberá estar enmarcado dentro de los siguientes horarios:
  • Ordinario: período normal de actividades de lunes a viernes de 07:30 hs. a 17:00 hs.
  • Extraordinario: a solicitud de la Institución (los días sábados, domingos y feriados o dentro de los días laborales ordinarios, pero fuera del periodo normal de actividades para las implementaciones que involucren corte en el servicio).

  1. CONDICIONES GENERALES DEL PROYECTO

    1. El Ministerio de Hacienda nombrará uno o varios supervisores del LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC. Estos técnicos tendrán la función de designar y priorizar los trabajos a realizar, aprobar o rechazar lo realizado, informes realizados por la empresa contratada, así como también realizar los informes del cumplimiento de los servicios realizados.

    1. En caso que los trabajos previstos y que por su naturaleza demanden que el personal técnico deba realizar las tareas fuera de las oficinas de la DGIC a fin de garantizar el normal funcionamiento de la infraestructura de comunicaciones, la Contratada deberá prever la movilidad tanto de sus técnicos como de los técnicos de la DGIC de fungen como contraparte.

    1. La contratada está obligada al uso de los formularios internos de la Institución para los servicios contratados. Pudiendo esta utilizar además sus propios formularios (internos).

    1. La solución ofertada debe ser plenamente compatible con la solución NUTANIX existente en el sitio de Principal de la Dirección General de Informática y Comunicaciones del Ministerio de Hacienda. El nuevo clúster deberá servir para la replicación de las máquinas virtuales del sitio principal al sitio de contingencia y establecer de esta manera la alta disponibilidad de toda la plataforma.

    1. El Oferente deberá proveer todas las licencias de VMware necesarias para que el clúster se encuentre debidamente cubierto y pueda operar sin inconvenientes legales. El clúster NUTANIX G5 cuenta actualmente con 6 licencias de VMware vSphere Entreprise Plus con soporte activo. Las mismas serán transferidas al nuevo cluster.

El soporte de la marca de dichas licencias debe ser extendidas al plazo de garantía y soporte solicitados en esta licitación. También deben ser adquiridas nuevas licencias de VMware vSphere Enterprise Plus para cubrir la cantidad total de procesadores del cluster.

El Oferente deberá también extender el periodo de soporte de VMware vCenter Server existente y ajustarlo al plazo de garantía y soporte solicitados en esta licitación

    1. La falta de algún elemento (hardware, software y/o cualquier componente o partes) necesario para el funcionamiento de los bienes, tanto individualmente, en operación conjunta, para los fines funcionales previstos por el Contratante, originado por cualquier tipo de interpretación de las especificaciones técnicas, obligará al oferente a proveerlo de inmediato y sin cargo adicional para el Contratante.

Las adecuaciones que fueran necesarias realizar para dar cumplimiento a lo establecido precedentemente serán realizadas por el Contratante en coordinación con el Oferente y garantizando en todos los casos la preservación de la funcionalidad requerida.

    1. Todos los equipos a proveer deberán ser nuevos, sin uso y en perfecto estado de funcionamiento. Todo bien a suministrar deberá pertenecer a la línea actual de productos del fabricante, y ser el más reciente estable en dicha línea.

    1. La entrega de cualquier Software significará la entrega de las Licencias de Uso del Software, emitidas a nombre del Contratante como mínimo durante el periodo que dure la garantía.

  1. SERVICIO DE IMPLEMENTACIÓN

    1. El servicio contemplará todos los suministros, actividades de montaje, instalación en general, configuración y puesta en funcionamiento de la solución ofertada en el gabinete designado por la Dirección General de Informática y Comunicaciones (DGIC) del Ministerio de Hacienda. La instalación deberá ser realizada con la presencia de técnicos de la Dirección General de Informática y Comunicaciones (DGIC) del Ministerio de Hacienda.

    1. Instalación de la Solución: Contemplará todos los suministros, actividades de montaje, instalación en general, configuración y puesta en funcionamiento de la solución en las siguientes entidades y dependencias del MH:
  1. Ministerio de Hacienda Dirección General de Informática y Comunicaciones.
  2. Ministerio de Hacienda Data Center de Contingencia

  1. ACTIVIDADES ESPECIFICAS DEL PROYECTO

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

    1. Garantía de Hardware y Software: Para los casos en que los equipos por la naturaleza de la avería y/o por recomendación del fabricante deberán están contemplados el cambio de partes parcial (en el caso de los equipos modulares) o total de los equipos descritos en las especificaciones técnicas detalladas en el PUNTO 15 ESPECIFICACIONES TECNICAS durante un periodo de 36 (treinta y seis) meses, que contemplará el soporte y subscripción de lo siguiente:
  • Remplazo avanzado de hardware en caso de fallas en 4 horas, a partir de la fecha y hora de la solicitud.
  • Traslado de los equipos de la oficina del cliente al proveedor y viceversa a cargo del oferente.
  • Firmware & General Updates.
  • Enhanced Support.
  • Mano de Obra.
  • Asistencia técnica telefónica inmediata. Línea telefónica ilimitada (24 horas al día) con acceso a especialistas expertos en redes.
  • Tareas técnicas de revisión preventiva que el proveedor deberá realizar en los equipos debe incluir el servicio completo preventivo anual de Hardware: limpieza y verificación anual de los equipos, y semestral de Software: suministro de nuevas versiones (releases) y patches (temporary fixes, APARs, Bugs, etc.) semestral.

    1. Soporte Técnico in-situ: Asistencia técnica in-situ a pedido de la contratante, la cual debe cumplir los siguientes requisitos:
  • Atención a las alertas y a los reclamos de la contraparte designada con un tiempo de respuesta no mayor a una (2) horas después de comunicado el inconveniente al proveedor.
  • Disponibilidad del servicio debe ser de 7 x 24 durante el periodo de la garantía.

  1. ACUERDO DE CONFIDENCIALIDAD

    1. La Empresa Contratada no podrá utilizar, disponer, copiar, transmitir, divulgar, difundir a ninguna otra institución o persona, ni antes, ni durante, ni después de la prestación del servicio, toda la información recuperada en este proceso, debiendo ser considerada la misma como de estricta y absoluta confidencialidad. Cualquier tipo de comunicación o difusión de esta información, independientemente de su formato, deberá ser efectuada a través de la CONTRATANTE, siendo ella la única parte que podrá autorizar por escrito cualquier tipo de difusión.

  1. RESULTADOS Y PRODUCTOS ESPERADOS

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

    1. Provisión, Instalación e Implementación de equipamiento, componentes y licencias en el Data Center de la DGIC y Sitio de Contingencia.
    2. Subscripción de licencias a nombre de la Dirección General de Informática y Comunicaciones del equipamiento incluido en el presente llamado.
    3. Informe de trabajos realizados y documentación complementaria aprobado según los descrito en el punto 14.1 INFORME DE IMPLEMENTACIÓN
    4. Asistencia y revisiones técnicas in situ realizadas.
    5. Informe de Asistencia y revisiones técnicas aprobado según los descrito en el punto 14.2 INFORME DE REVISIONES TECNICAS PREVENTIVAS DE SOFTWARE Y HARDWARE

  1. CALENDARIO E HITOS DEL PROYECTO

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

Actividades e Informes

Mes

04

06

12

18

24

30

36

Implementación de Solución (CRITICO)

Provisión, Instalación y pruebas de funcionamiento, que será evidenciado con los informes requeridos en el Punto 14.1 INFORME DE IMPLEMENTACION

Servicio semestral y anual de revisiones técnicas preventivas

Servicio que será evidenciado con los informes requeridos en el Punto 14.2 INFORME DE REVISIONES TECNICAS PREVENTIVAS

SW

SW HW

SW

SW HW

SW

SW HW

Servicio Técnico o de Urgencia in-situ

Servicio on-demand que será evidenciado con los informes requeridos en el Punto 14.3 INFORME DE SERVICIO TÉCNICO O DE URGENCIA

Durante la vigencia del Contrato

OBSERVACIÓN: Las actividades denominadas (CRÍTICO) y los de servicio anual de revisiones preventivas involucran pagos conforme al PLAZO DE ENTREGA DE TRABAJOS E INFORMES y MODALIDAD DE PAGO

Vigencia de Servicios Conexos

Garantía del fabricante tipo 24x7

Soporte técnico del oferente tipo 24X7

Durante la vigencia del Contrato

  1. INFORMES

LOTE 1 AMPLIACION DE SOLUCION HYPERCONVERGENTE PARA SERVICIOS DE LA DGIC

    1. INFORME DE IMPLEMENTACION: Este documento deberá incluir los siguientes puntos:

  1. Provisión, Instalación e Implementación de equipamiento, componentes y licencias en el Data Center de la DGIC y Sitio de Contingencia.
  2. Documentación relativa a la garantía por 36 meses del equipamiento.
  3. Carta compromiso de revisiones técnicas anuales para el hardware y semestrales para el software del total de los equipos descritos en el PUNTO 15. ESPECIFICACIONES TÉCNICAS
  4. Usuario registrado para soporte web.

A manera de guía se detallan los anexos que debe incluir el informe para el ítem 1:

  1. Descripción de la Ingeniería de la Red.
  2. Planos de vista general de la Red y de los equipos a utilizar con su identificación.
  3. Planos de ubicación de los equipos de Red.
  4. Diagrama de conexión de los Equipos de Comunicación, Físico y Lógico, describiendo el Protocolo con que se conectan (L2, L3, etc.), y los IP´s involucrados de los Equipos, red, etc (IP planning).
  5. Otros planos que sean necesarios para la administración de la solución.

    1. INFORME DE REVISIONES TECNICAS PREVENTIVAS DE SOFTWARE Y HARDWARE: Este informe deberá incluir los siguientes puntos:

  1. Revisión Técnica Preventiva de Software y/o Hardware.
  2. Implementación de ajustes de acuerdo a recomendaciones.
  3. Revisiones y pruebas de restauración de Backup.
  4. Recomendaciones sobre mejores prácticas en cuanto a configuraciones, nuevas funcionalidades y hardware si las hubiera.

    1. INFORME DE SERVICIO TECNICO O DE URGENCIA: Este informe deberá incluir los siguientes puntos:
  1. Detalle de las actividades o trabajos de urgencia de Hardware y/o software.
  2. Recomendaciones sobre mejores prácticas en cuanto a configuraciones, nuevas funcionalidades y hardware si las hubiera.

ESPECIFICACIONES TÉCNICAS

LOTE 1 AMPLIACION DE SOLUCIÓN HIPERCONVERGENTE PARA SERVICIOS DE LA DGIC

ITEM 1 SOLUCIÓN HIPERCONVERGENTE PARA ACTUALIZACIÓN DE CLUSTER NUTANIX G5

Nombre del Bien o Servicio Conexo

Descripción Técnica

Mínimo Exigido

Cumple /
No Cumple

1

CANTIDAD

12

EXIGIDO

2

MARCA

NUTANIX

EXIGIDO

3

MODELO

NX-8235N-G8-4310CM

EXIGIDO

4

FACTOR DE FORMA

Chasis para Rack standard compatible con EIA-310D

EXIGIDO

5

TAMAÑO MÁXIMO DE LA SOLUCIÓN

hasta 4U

EXIGIDO

6

ARQUITECTURA DE PROCESADORES

Tipo x86 64 bits.

EXIGIDO

7

CAPACIDAD DE PROCESAMIENTO

Mínimo 96 núcleos de 2.1 GHz con memoria caché de 18 MB o superior en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

8

CAPACIDAD DE MEMORIA

Mínimo de 4096 GB, 3200MHZ, DDR4 en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

9

CAPACIDAD DE ALMACENAMIENTO

Mínimo de 30 TB RAW en discos de estado sólido (SSD) y 192 TB RAW en discos mecánicos (HDD)en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

10

ADMINISTRACIÓN

El marco de administración debe proporcionar una interfaz de usuario gráfica intuitiva. Toda la información se debe organizar y presentar a través de áreas bien definidas con el propósito de lograr un acceso sencillo a los datos operativos. Debe ofrecer la capacidad de definir y administrar una infraestructura convergente completa desde cualquier dispositivo.

EXIGIDO

11

CONEXIÓN LAN

Módulos de interconexión Ethernet con 4 puertos 10GbE/25GbE con módulos SFP+ por cada servidor/nodo/host.

Se deberá contar con módulos de interconexión LAN internos al chasis, cada servidor/nodo/host con 4 puertos externos activados (SFP+) de corta o larga distancia de 10Gbps o superior.

La solución debe poder funcionar con cualquier switch Ethernet 10GbE/25GbE.
Todos los cables necesarios para la conexión LAN, deberán ser proveídos.

EXIGIDO

12

VENTILADORES Y FUENTES DE ALIMENTACIÓN

El sistema de ventilación (coolers) y el sistema de alimentación provisto, deberán estar preparados para soportar la instalación completa del chasis con sus bahías completas, sin producir una degradación general del sistema. Las fuentes de alimentación deberán ser redundantes.

EXIGIDO

13

ALIMENTACIÓN ELÉCTRICA

La alimentación Eléctrica de los servidores/nodos/hosts deberá ser de tipo Redundante (1+1), pudiendo ser compartida por 2 servidores/nodos/hosts, siempre que se mantenga la redundancia.

220 VOLTIOS CORRIENTE ALTERNA MONOFÁSICO

Frecuencia en Hertz

50/60

14

HERRAMIENTA / CONSOLA DE GESTIÓN O ADMINISTRACIÓN

• La interfaz de administración deber ser accedida mediante un browser y estar basada en HTML5.

• Proveer una única vista para todo el entorno manteniendo múltiples puntos de acceso.
• La consola de Administración deberá ejecutarse sobre los mismos servidores/nodos/hosts del Clúster que administra, aprovechando la tolerancia a fallos del mismo (Ej. La consola debe permanecer disponible ante la falla de cualquiera de los servidores/nodos/hosts).
• Proveer accesos alternativos basados en SSH y/o interfaces seriales remotas estilo IPMI.
• Contener autenticación LDAP, Active Directory, CAC Prompt y certificados firmados por SSL.

• Contemplar integración mediante el uso de REST API a otras soluciones de administración, a fin de facilitar la integración con ambientes de monitoreo actuales.
• Tener la capacidad de facilitar una consola gráfica, que permita visualizar los recursos utilizados por las máquinas virtuales (VM) independientemente del tipo de hipervisor.

EXIGIDO

15

ALMACENAMIENTO

La solución debe contar con un sistema de almacenamiento distribuido definida por software y proveer las siguientes funcionalidades:
• Cada servidor/nodo/host, deberá contar con su propia controladora de almacenamiento.
• Esquema de capas en forma automática (auto-tiering) entre los diferentes niveles, memoria, disco de estado sólido (SSD) y discos mecánicos (HDD) en tiempo real.
• Deduplicación en la ingesta de información, en los discos de estado sólido (SSD) y en los discos mecánicos (HDD).
• Compresión tanto en línea y en reposo.
• La solución debe soportar Erasure Coding, para mejor aprovechamiento del almacenamiento.
• Snapshots basados en punteros.
• Sistemas de clones de máquinas virtuales.
• Capacidad de usar Erasure Coding para poder hacer uso eficiente del espacio en discos mecánicos (HDD)
• Debe existir un sistema que permita que a lo largo del tiempo los datos más accedidos por una VM corriendo en cualquiera de los servidores/nodos/hosts, tengan siempre una copia en el almacenamiento del servidor/nodo/host local, de manera que la lectura pueda realizarse a velocidad local en la mayoría de los accesos. Este mecanismo debe converger y actualizarse de manera automática si la VM es movida/trasladada a otro servidor/nodo/host.
• Thin Provisioning tanto para máquinas virtuales, como a nivel de contenedor/datastore.
• Capacidad de réplica en forma sincrónica o asincrónica.
• La réplica de los datos debe poder configurarse con granularidad por Máquina Virtual (VM)
• El cluster debe poder replicar contra otro/s Cluster/s en el sitio local o en sitios remotos de manera sencilla. El oferente deberá validar los requerimientos e incluir todos los componentes y licencias que sean necesarios para que la réplica de datos entre clusters sea posible.
Adicionalmente, la solución de réplica debe de permitir replicar máquinas virtuales entre hipervisores diferentes para poder facilitar la migración de un hipervisor a otro.
El almacenamiento debe estar diseñado especialmente para ambientes virtualizados. Debe ser compatible mínimamente con Vmware, Hyper-V y AHV de Nutanix.

La arquitectura de almacenamiento debe permitir que cada servidor/nodo/host vaya integrado con una controladora para gestionar los recursos de almacenamiento en un cluster, y para todas las máquinas virtuales. Estas controladoras deben comunicarse entre sí, permitiendo gestionar el acceso desde múltiples servidores/nodos/hosts a los datos replicados.
La solución de almacenamiento no requerirá de switches de Fibre Channel ni FCoE para su funcionamiento. Solamente utilizara IP sobre Ethernet estándar (no deberá ser obligatorio configurar características específicas como Jumbo-Frames, ni otras características especiales para lograr que el Cluster opere correctamente).
Deberá tener la capacidad de distribuir los datos adentro del cluster y adicionalmente poder replicarlos internamente, para poder asegurar su disponibilidad. El factor de réplica puede ser configurado en nodo 2 ó 3, dependiendo de la cantidad de nodos instalados.
La solución mínimamente deberá tener la capacidad de realizar respaldos a AWS (Amazon Web Services) y Microsoft Azure.

EXIGIDO

16

ESCALABILIDAD

Escalabilidad Proveer un crecimiento lineal, estable y predecible en su rendimiento a medida que se agreguen servidores/nodos/hosts. Soportar un crecimiento ilimitado en servidores/nodos/hosts, que incrementen la capacidad de procesamiento, memoria y almacenamiento. El clúster una vez establecido debe ser capaz de crecer de a un servidor/nodo/host por vez.
Deberá soportar crecimiento lineal con servidores/nodos/hosts heterogéneos, o de diferentes modelos para maximizar recursos de procesamiento, memoria o almacenamiento según se requiera.
Proveer la factibilidad de crecimientos modulares evitando así el sobredimensionamiento del proyecto.
El crecimiento tiene que ser en forma granular de hasta un servidor/nodo/host por vez incrementando los recursos globales de procesamiento, memoria, y almacenamiento en forma simultánea de todo el cluster y en diferentes proporciones, para poder acomodarse a los diferentes requerimientos.

EXIGIDO

17

TIPOS DE NODOS

Se debe poder integrar servidores/nodos/hosts con diferentes características que le permitan adaptarse a los requerimientos de cada una de las aplicaciones y formando un clúster mixto.
Los tipos de nodos esperados son:
•Intensivos en CPU/Memoria.
•Intensivos en Almacenamiento.
•Nodos solamente con discos SSD.

EXIGIDO

18

ALTA DISPONIBILIDAD

La infraestructura de Cómputo y Almacenamiento deberá ser distribuida y completamente definida por software, armando un clúster con las siguientes características:
• Filesystem con capacidad de recuperación ante la falla de un disco o de un servidor/nodo/host completo que forma parte de la solución.

• La protección de los datos deberá ser realizando múltiples copias de los datos en los discos pertenecientes a más de un servidor/nodo/host, de manera de garantizar que los datos sigan disponibles aún luego de la falla de algún componente o incluso la falla de un servidor/nodo/host completo (tolerancia a fallos). Esta protección de datos deberá realizarse entre los múltiples servidores/nodo/host que componen el Clúster, de manera distribuida (no estando limitado a un esquema 1+1)
o En caso de una falla, la solución basada en Software debe actuar de manera automática creando nuevas copias múltiples de los datos, de manera de mantener el nivel de protección hasta tanto se reemplace el componente que haya fallado (Auto-Saneamiento de la solución)

EXIGIDO

19

ACCESORIOS

Todos los accesorios requeridos para entregar el equipo en perfecto estado de operación (Módulos, software, patch cords, power cord, rackmount kit, etc.)

EXIGIDO

LOTE 1 - AMPLIACION DE SOLUCIÓN HIPERCONVERGENTE PARA SERVICIOS DE LA DGIC

ITEM 2 SOLUCIÓN HIPERCONVERGENTE PARA REPLICACIÓN DE CLUSTER MICROSOFT

Nombre del Bien o Servicio Conexo

Descripción Técnica

Mínimo Exigido

Cumple /
No Cumple

1

CANTIDAD

1

EXIGIDO

2

MARCA

NUTANIX

EXIGIDO

3

MODELO

NX-1365N-G8-4309YCM

EXIGIDO

4

FACTOR DE FORMA

Chasis para Rack standard compatible con EIA-310D

EXIGIDO

5

TAMAÑO MÁXIMO DE LA SOLUCIÓN

hasta 2U

EXIGIDO

6

ARQUITECTURA DE PROCESADORES

Tipo x86 64 bits.

EXIGIDO

7

CAPACIDAD DE PROCESAMIENTO

Mínimo 48 núcleos de 2.8 GHz con memoria caché de 12 MB o superior en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

8

CAPACIDAD DE MEMORIA

Mínimo de 768 GB 3200MHz DDR4 en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

9

CAPACIDAD DE ALMACENAMIENTO

Mínimo de 5,76 TB RAW en discos de estado sólido (SSD) y 36 TB RAW en discos HDD en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

10

ADMINISTRACIÓN

El marco de administración debe proporcionar una interfaz de usuario gráfica intuitiva. Toda la información se debe organizar y presentar a través de áreas bien definidas con el propósito de lograr un acceso sencillo a los datos operativos. Debe ofrecer la capacidad de definir y administrar una infraestructura convergente completa desde cualquier dispositivo.

EXIGIDO

11

CONEXIÓN LAN

Módulos de interconexión Ethernet con 4 puertos 10GbE/25GbE con módulos SFP+ por cada servidor/nodo/host.
Se deberá contar con módulos de interconexión LAN internos al chasis, cada servidor/nodo/host con 4 puertos externos activados (SFP+) de corta o larga distancia de 10Gbps/25Gbps o superior.
La solución debe poder funcionar con cualquier switch Ethernet 10GbE/25GbE.
Todos los cables necesarios para la conexión LAN, deberán ser proveídos.

EXIGIDO

12

VENTILADORES Y FUENTES DE ALIMENTACIÓN

El sistema de ventilación (coolers) y el sistema de alimentación provisto, deberán estar preparados para soportar la instalación completa del chasis con sus bahías completas, sin producir una degradación general del sistema. Las fuentes de alimentación deberán ser redundantes.

EXIGIDO

13

ALIMENTACIÓN ELÉCTRICA

La alimentación Eléctrica de los servidores/nodos/hosts deberá ser de tipo Redundante (1+1), pudiendo ser compartida por 4 servidores/nodos/hosts, siempre que se mantenga la redundancia.

220 VOLTIOS CORRIENTE ALTERNA MONOFÁSICO

Frecuencia en Hertz

50/60

14

HERRAMIENTA / CONSOLA DE GESTIÓN O ADMINISTRACIÓN

• La interfaz de administración deber ser accedida mediante un browser y estar basada en HTML5.

• Proveer una única vista para todo el entorno manteniendo múltiples puntos de acceso.
• La consola de Administración deberá ejecutarse sobre los mismos servidores/nodos/hosts del Clúster que administra, aprovechando la tolerancia a fallos del mismo (Ej. La consola debe permanecer disponible ante la falla de cualquiera de los servidores/nodos/hosts).
• Proveer accesos alternativos basados en SSH y/o interfaces seriales remotas estilo IPMI.
• Contener autenticación LDAP, Active Directory, CAC Prompt y certificados firmados por SSL.

• Contemplar integración mediante el uso de REST API a otras soluciones de administración, a fin de facilitar la integración con ambientes de monitoreo actuales.
• Tener la capacidad de facilitar una consola gráfica, que permita visualizar los recursos utilizados por las máquinas virtuales (VM) independientemente del tipo de hipervisor.

EXIGIDO

15

ALMACENAMIENTO

La solución debe contar con un sistema de almacenamiento distribuido definida por software y proveer las siguientes funcionalidades:
• Cada servidor/nodo/host, deberá contar con su propia controladora de almacenamiento.
• Esquema de capas en forma automática (auto-tiering) entre los diferentes niveles, memoria, disco de estado sólido (SSD) y discos mecánicos (HDD) en tiempo real.
•Deduplicación en la ingesta de información, en los discos de estado sólido (SSD) y en los discos mecánicos (HDD).
• Compresión tanto en línea y en reposo.
• La solución debe soportar Erasure Coding, para mejor aprovechamiento del almacenamiento.
•Snapshots basados en punteros.
• Sistemas de clones de máquinas virtuales.
• Capacidad de usar Erasure Coding para poder hacer uso eficiente del espacio en discos mecánicos (HDD)

• Debe existir un sistema que permita que a lo largo del tiempo los datos más accedidos por una VM corriendo en cualquiera de los servidores/nodos/hosts, tengan siempre una copia en el almacenamiento del servidor/nodo/host local, de manera que la lectura pueda realizarse a velocidad local en la mayoría de los accesos. Este mecanismo debe converger y actualizarse de manera automática si la VM es movida/trasladada a otro servidor/nodo/host.
• Thin Provisioning tanto para máquinas virtuales, como a nivel de contenedor/datastore.
• Capacidad de réplica en forma sincrónica o asincrónica.

• La réplica de los datos debe poder configurarse con granularidad por Máquina Virtual (VM).

• El clúster debe poder replicar contra otro/s Clúster/s en el sitio local o en sitios remotos de manera sencilla. El oferente deberá validar los requerimientos e incluir todos los componentes y licencias que sean necesarios para que la réplica de datos entre clúster sea posible.

Adicionalmente, la solución de réplica debe de permitir replicar máquinas virtuales entre hipervisores diferentes para poder facilitar la migración de un hipervisor a otro.
El almacenamiento debe estar diseñado especialmente para ambientes virtualizados. Debe ser compatible mínimamente con VMware, Hyper-V y AHV de Nutanix.

La arquitectura de almacenamiento debe permitir que cada servidor/nodo/host vaya integrado con una controladora para gestionar los recursos de almacenamiento en un clúster, y para todas las máquinas virtuales. Estas controladoras deben comunicarse entre sí, permitiendo gestionar el acceso desde múltiples servidores/nodos/hosts a los datos replicados.
La solución de almacenamiento no requerirá de switches de Fibre Channel ni FCoE para su funcionamiento. Solamente utilizara IP sobre Ethernet estándar (no deberá ser obligatorio configurar características específicas como Jumbo-Frames, ni otras características especiales para lograr que el Clúster opere correctamente).
Deberá tener la capacidad de distribuir los datos adentro del clúster y adicionalmente poder replicarlos internamente, para poder asegurar su disponibilidad. El factor de réplica puede ser configurado en nodo 2 ó 3, dependiendo de la cantidad de nodos instalados.
La solución mínimamente deberá tener la capacidad de realizar respaldos a AWS (Amazon Web Services) y Microsoft Azure.

EXIGIDO

16

ESCALABILIDAD

Escalabilidad Proveer un crecimiento lineal, estable y predecible en su rendimiento a medida que se agreguen servidores/nodos/hosts. Soportar un crecimiento ilimitado en servidores/nodos/hosts, que incrementen la capacidad de procesamiento, memoria y almacenamiento. El clúster una vez establecido debe ser capaz de crecer de a un servidor/nodo/host por vez.

Deberá soportar crecimiento lineal con servidores/nodos/hosts heterogéneos, o de diferentes modelos para maximizar recursos de procesamiento, memoria o almacenamiento según se requiera.

Proveer la factibilidad de crecimientos modulares evitando así el sobredimensionamiento del proyecto.

El crecimiento tiene que ser en forma granular de hasta un servidor/nodo/host por vez incrementando los recursos globales de procesamiento, memoria, y almacenamiento en forma simultánea de todo el cluster y en diferentes proporciones, para poder acomodarse a los diferentes requerimientos.

EXIGIDO

17

TIPOS DE NODOS

Se debe poder integrar servidores/nodos/hosts con diferentes características que le permitan adaptarse a los requerimientos de cada una de las aplicaciones y formando un clúster mixto.
Los tipos de nodos esperados son:
•Intensivos en CPU/Memoria.

•Intensivos en Almacenamiento.

•Nodos solamente con discos SSD.

EXIGIDO

18

ALTA DISPONIBILIDAD

La infraestructura de Cómputo y Almacenamiento deberá ser distribuida y completamente definida por software, armando un clúster con las siguientes características:
• Filesystem con capacidad de recuperación ante la falla de un disco o de un servidor/nodo/host completo que forma parte de la solución.

• La protección de los datos deberá ser realizando múltiples copias de los datos en los discos pertenecientes a más de un servidor/nodo/host, de manera de garantizar que los datos sigan disponibles aún luego de la falla de algún componente o incluso la falla de un servidor/nodo/host completo (tolerancia a fallos).

o Esta protección de datos deberá realizarse entre los múltiples servidor/nodo/host que componen el Clúster, de manera distribuida (no estando limitado a un esquema 1+1)
o En caso de una falla, la solución basada en Software debe actuar de manera automática creando nuevas copias múltiples de los datos, de manera de mantener el nivel de protección hasta tanto se reemplace el componente que haya fallado (Auto-Saneamiento de la solución)

EXIGIDO

19

ACCESORIOS

Todos los accesorios requeridos para entregar el equipo en perfecto estado de operación (Módulos, software, patch cords, power cord, rackmount kit, etc.)

EXIGIDO

LOTE 1 - AMPLIACION DE SOLUCIÓN HIPERCONVERGENTE PARA SERVICIOS DE LA DGIC

ITEM 3 AMPLIACIÓN DE CLUSTER NUTANIX SITIO DE CONTINGENCIA

Nombre del Bien o Servicio Conexo

Descripción Técnica

Mínimo Exigido

Cumple /
No Cumple

1

CANTIDAD

1

Exigido

2

MARCA

Nutanix

Exigido

3

MODELO

NX-8135N-G8-6334CM

Exigido

4

FACTOR DE FORMA

Chasis para Rack standard compatible con EIA-310D

EXIGIDO

5

TAMAÑO MÁXIMO DE LA SOLUCIÓN

hasta 2U

EXIGIDO

6

ARQUITECTURA DE PROCESADORES

Tipo x86 64 bits.

EXIGIDO

7

CAPACIDAD DE PROCESAMIENTO

Mínimo 16 núcleos de 3.6 GHz con memoria caché de 18 MB o superior en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

8

CAPACIDAD DE MEMORIA

Mínimo de 128 GB, 3200MHz, DDR4 en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

9

CAPACIDAD DE ALMACENAMIENTO

Mínimo de 3,84 TB RAW en discos de estado sólido (SSD) y 48 TB RAW en discos de capacidad (HDD) en la solución ofertada. Escalable de manera ilimitada.

EXIGIDO

10

ADMINISTRACIÓN

El marco de administración debe proporcionar una interfaz de usuario gráfica intuitiva. Toda la información se debe organizar y presentar a través de áreas bien definidas con el propósito de lograr un acceso sencillo a los datos operativos. Debe ofrecer la capacidad de definir y administrar una infraestructura convergente completa desde cualquier dispositivo.

EXIGIDO

11

CONEXIÓN LAN

Módulos de interconexión Ethernet con 4 puertos 10GbE con módulos SFP+ por cada servidor/nodo/host.
Se deberá contar con módulos de interconexión LAN internos al chasis, cada servidor/nodo/host con 4 puertos externos activados (SFP+) de corta o larga distancia de 10Gbps o superior.

La solución debe poder funcionar con cualquier switch Ethernet 10GbE.
Todos los cables necesarios para la conexión LAN, deberán ser proveídos.

EXIGIDO

12

VENTILADORES Y FUENTES DE ALIMENTACIÓN

El sistema de ventilación (coolers) y el sistema de alimentación provisto, deberán estar preparados para soportar la instalación completa del chasis con sus bahías completas, sin producir una degradación general del sistema. Las fuentes de alimentación deberán ser redundantes.

EXIGIDO

13

ALIMENTACIÓN ELÉCTRICA

La alimentación Eléctrica de los servidores/nodos/hosts deberá ser de tipo Redundante (1+1), pudiendo ser compartida por 2 servidores/nodos/hosts, siempre que se mantenga la redundancia.

220 VOLTIOS CORRIENTE ALTERNA MONOFÁSICO

Frecuencia en Hertz

50/60

14

HERRAMIENTA / CONSOLA DE GESTIÓN O ADMINISTRACIÓN

• La interfaz de administración deber ser accedida mediante un browser y estar basada en HTML5.

• Proveer una única vista para todo el entorno manteniendo múltiples puntos de acceso.
• La consola de Administración deberá ejecutarse sobre los mismos servidores/nodos/hosts del Clúster que administra, aprovechando la tolerancia a fallos del mismo (Ej. La consola debe permanecer disponible ante la falla de cualquiera de los servidores/nodos/hosts).
• Proveer accesos alternativos basados en SSH y/o interfaces seriales remotas estilo IPMI.
• Contener autenticación LDAP, Active Directory, CAC Prompt y certificados firmados por SSL.

• Contemplar integración mediante el uso de REST API a otras soluciones de administración, a fin de facilitar la integración con ambientes de monitoreo actuales.
• Tener la capacidad de facilitar una consola gráfica, que permita visualizar los recursos utilizados por las máquinas virtuales (VM) independientemente del tipo de hipervisor.

EXIGIDO

15

ALMACENAMIENTO

La solución debe contar con un sistema de almacenamiento distribuido definida por software y proveer las siguientes funcionalidades:
• Cada servidor/nodo/host, deberá contar con su propia controladora de almacenamiento.
• Esquema de capas en forma automática (auto-tiering) entre los diferentes niveles, memoria, disco de estado sólido (SSD) y discos mecánicos (HDD) en tiempo real.
• Deduplicación en la ingesta de información, en los discos de estado sólido (SSD) y en los discos mecánicos (HDD).
• Compresión tanto en línea y en reposo.
• La solución debe soportar Erasure Coding, para mejor aprovechamiento del almacenamiento.
• Snapshots basados en punteros.
• Sistemas de clones de máquinas virtuales.
• Capacidad de usar Erasure Coding para poder hacer uso eficiente del espacio en discos mecánicos (HDD).

• Debe existir un sistema que permita que a lo largo del tiempo los datos más accedidos por una VM corriendo en cualquiera de los servidores/nodos/hosts, tengan siempre una copia en el almacenamiento del servidor/nodo/host local, de manera que la lectura pueda realizarse a velocidad local en la mayoría de los accesos. Este mecanismo debe converger y actualizarse de manera automática si la VM es movida/trasladada a otro servidor/nodo/host.

• Thin Provisioning tanto para máquinas virtuales, como a nivel de contenedor/datastore.
• Capacidad de réplica en forma sincrónica o asincrónica.

• La réplica de los datos debe poder configurarse con granularidad por Máquina Virtual (VM).

• El clúster debe poder replicar contra otro/s Clúster/s en el sitio local o en sitios remotos de manera sencilla. El oferente deberá validar los requerimientos e incluir todos los componentes y licencias que sean necesarios para que la réplica de datos entre clúster sea posible.

Adicionalmente, la solución de réplica debe de permitir replicar máquinas virtuales entre hipervisores diferentes para poder facilitar la migración de un hipervisor a otro.
El almacenamiento debe estar diseñado especialmente para ambientes virtualizados. Debe ser compatible mínimamente con Vmware, Hyper-V y AHV de Nutanix.

La arquitectura de almacenamiento debe permitir que cada servidor/nodo/host vaya integrado con una controladora para gestionar los recursos de almacenamiento en un clúster, y para todas las máquinas virtuales. Estas controladoras deben comunicarse entre sí, permitiendo gestionar el acceso desde múltiples servidores/nodos/hosts a los datos replicados.
La solución de almacenamiento no requerirá de switches de Fibre Channel ni FCoE para su funcionamiento. Solamente utilizara IP sobre Ethernet estándar (no deberá ser obligatorio configurar características específicas como Jumbo-Frames, ni otras características especiales para lograr que el Clúster opere correctamente).
Deberá tener la capacidad de distribuir los datos adentro del clúster y adicionalmente poder replicarlos internamente, para poder asegurar su disponibilidad. El factor de réplica puede ser configurado en nodo 2 ó 3, dependiendo de la cantidad de nodos instalados.
La solución mínimamente deberá tener la capacidad de realizar respaldos a AWS (Amazon Web Services) y Microsoft Azure.

EXIGIDO

16

ESCALABILIDAD

Escalabilidad Proveer un crecimiento lineal, estable y predecible en su rendimiento a medida que se agreguen servidores/nodos/hosts. Soportar un crecimiento ilimitado en servidores/nodos/hosts, que incrementen la capacidad de procesamiento, memoria y almacenamiento. El clúster una vez establecido debe ser capaz de crecer de a un servidor/nodo/host por vez.

Deberá soportar crecimiento lineal con servidores/nodos/hosts heterogéneos, o de diferentes modelos para maximizar recursos de procesamiento, memoria o almacenamiento según se requiera.
Proveer la factibilidad de crecimientos modulares evitando así el sobredimensionamiento del proyecto.

El crecimiento tiene que ser en forma granular de hasta un servidor/nodo/host por vez incrementando los recursos globales de procesamiento, memoria, y almacenamiento en forma simultánea de todo el clúster y en diferentes proporciones, para poder acomodarse a los diferentes requerimientos.

EXIGIDO

17

TIPOS DE NODOS

Se debe poder integrar servidores/nodos/hosts con diferentes características que le permitan adaptarse a los requerimientos de cada una de las aplicaciones y formando un clúster mixto.
Los tipos de nodos esperados son:
•Intensivos en CPU/Memoria.

•Intensivos en Almacenamiento.

•Nodos solamente con discos SSD.

EXIGIDO

18

ALTA DISPONIBILIDAD

La infraestructura de Cómputo y Almacenamiento deberá ser distribuida y completamente definida por software, armando un clúster con las siguientes características:
• Filesystem con capacidad de recuperación ante la falla de un disco o de un servidor/nodo/host completo que forma parte de la solución.

• La protección de los datos deberá ser realizando múltiples copias de los datos en los discos pertenecientes a más de un servidor/nodo/host, de manera de garantizar que los datos sigan disponibles aún luego de la falla de algún componente o incluso la falla de un servidor/nodo/host completo (tolerancia a fallos).

o Esta protección de datos deberá realizarse entre los múltiples servidores/nodo/host que componen el Clúster, de manera distribuida (no estando limitado a un esquema 1+1)

o En caso de una falla, la solución basada en Software debe actuar de manera automática creando nuevas copias múltiples de los datos, de manera de mantener el nivel de protección hasta tanto se reemplace el componente que haya fallado (Auto-Saneamiento de la solución)

EXIGIDO

19

ACCESORIOS

Todos los accesorios requeridos para entregar el equipo en perfecto estado de operación (Módulos, software, patch cords, power cord, rackmount kit, etc.)

EXIGIDO

ANEXO 1 MODELOS DE NOTAS PARA EJECUCION DE PROYECTO

MODELO DE INFORME DE REVISIONES TECNICAS Y ACTUALIZACIONES

INFORME TÉCNICO DE REVISIONES TECNICAS Y ACTUALIZACIONES

PARA : MINISTERIO DE HACIENDA DGIC

ATENCION : {NOMBRE DEL DIRECTOR GENERAL DE LA DGIC}

FECHA : {FECHA}

ASUNTO : Mantenimiento y Actualización de Equipamiento Incluido en la {COD. PROCESO LICITATORIO - MH N° CONTRATO - DESCRIPCIÓN DEL PROCESO LICITATORIO ID N° CONTRATACIONES}

  1. LISTA DE EQUIPAMIENTO INVOLUCRADO EN EL RELEVAMIENTO

DESCRIPCIÓN DE EQUIPAMIENTO

N° SERIE

EQUIPO 1 {NOMBRE DE EQUIPO}

EQUIPO N {NOMBRE DE EQUIPO}

  1. DESCRIPCION DEL TRABAJO

EQUIPO 1 {NOMBRE DE EQUIPO}

Se realizó la actualización del equipo {NOMBRE DE EQUIPO} denominado como {función del equipo} de la versión {VERSIÓN ACTUAL} se migró a la versión {VERSIÓN RECOMENDADA}.

El equipo se encontraba de la siguiente manera:

{IMPRESIONES DE PANTALLA}

Por último se realizó el salto a la version deseada, el equipo quedo con la versión que se observa:

{IMPRESIONES DE PANTALLA}

  1. OBSERVACIONES

{Si durante los trabajos de mantenimiento y actualización hubo imprevistos y/o problemas se deberán detallar las observaciones al respecto}

  1. IMPACTO DEL TRABAJO DE ACTUALIZACION

Para la realización de los trabajos (SERA NECESARIO / NO SERÁ NECESARIO) el reinicio de los equipos por lo tanto (SE VERAN / NO SE VERAN) afectados los servicios de conectividad.

  1. TECNICO RESPONSABLE

Este informe fue elaborado por {Nombre y Apellido del Técnico}

MODELO DE NOTA PARA PRESENTACIÓN DE CRONOGRAMA DE ACTIVIDADES

Asunción, {FECHA}

Sres.

Ministerio de Hacienda

Dirección General de Informática y Comunicaciones

{NOMBRE DEL DIRECTOR GENERAL DE LA DGIC}

PRESENTE

Ref.: {COD. PROCESO LICITATORIO - MH N° CONTRATO - DESCRIPCIÓN DEL PROCESO LICITATORIO ID N° CONTRATACIONES}

Nos dirigimos a usted respecto a la Licitación de referencia a fin de presentar la siguiente propuesta de cronograma para cumplir con lo acordado en el Contrato N° {NUMERO DE CONTRATO} mencionado:

CRONOGRAMA TENTATIVO DE ACTIVIDADES

DIA 1

FECHA 1

DIA 2

FECHA 2

DIA N

FECHA N

DIA N+1

FECHA N+1

DESCRIPCIÓN DETALLADA DE ACTIVIDAD 1

DESCRIPCIÓN DETALLADA DE ACTIVIDAD 2

DESCRIPCIÓN DETALLADA DE ACTIVIDAD N

Presentación de Informe final de los trabajos

LISTA DE EQUIPOS Y/O INFRAESTRUCTURA INVOLUCRADA EN EL CRONOGRAMA

DESCRIPCIÓN DE EQUIPAMIENTO

N° SERIE

EQUIPO 1 {NOMBRE DE EQUIPO}

EQUIPO 2 {NOMBRE DE EQUIPO}

EQUIPO N {NOMBRE DE EQUIPO}

LISTA DE INFRAESTRUCTURA INVOLUCRADA EN EL CRONOGRAMA

DESCRIPCIÓN DE INFRAESCTRUCTURA

OBSERVACIONES

RED LOCAL DE {NOMBRE DE DEPENDENCIA}

DEPENDENCIA MH {NOMBRE DE DEPENDENCIA}

NODO DE LA RMSP {NOMBRE DE DEPENDENCIA}

NOMBRE DE OEE

LISTA DE TECNICOS

NOMBRE Y APELLIDO

N° CEDULA

EQUIPAMIENTO O HERRAMIENTA PARA REALIZACIÓN DE TRABAJOS

DESCRIPCIÓN DE EQUIPAMIENTO Y/O HERRAMIENTA

N° DE SERIE

MODELO DE INFORME TECNICO DE RELEVAMIENTO

INFORME TÉCNICO DE RELEVAMIENTO

PARA : MINISTERIO DE HACIENDA DGIC

ATENCION : {NOMBRE DEL DIRECTOR GENERAL DE LA DGIC}

FECHA : {FECHA}

ASUNTO : Relevamiento de la {COD. PROCESO LICITATORIO - MH N° CONTRATO - DESCRIPCIÓN DEL PROCESO LICITATORIO ID N° CONTRATACIONES}

  1. LISTA DE EQUIPAMIENTO INVOLUCRADO EN EL RELEVAMIENTO

DESCRIPCIÓN DE EQUIPAMIENTO

N° SERIE

EQUIPO 1 {NOMBRE DE EQUIPO}

EQUIPO N {NOMBRE DE EQUIPO}

  1. ESTADO ACTUAL DE EQUIPOS

EQUIPO 1 {NOMBRE DE EQUIPO}

SOFTWARE

VERSION ACTUAL

VERSION RECOMENDADA

OBSERVACIONES

{descripción completa del software}

{descripción completa del software}

{Se deberá describir las nuevas funcionalidades y/o bugs que soluciona la nueva versión}

{IMPRESIONES DE PANTALLA}

EQUIPO N {NOMBRE DE EQUIPO}

SOFTWARE

VERSION ACTUAL

VERSION RECOMENDADA

OBSERVACIONES

{descripción completa del software}

{descripción completa del software}

{Se deberá describir las nuevas funcionalidades y/o bugs que soluciona la nueva versión}

{IMPRESIONES DE PANTALLA}

  1. TIEMPO ESTIMADO DE TRABAJOS

El tiempo estimado para realizar este trabajo de actualización y mantenimiento de los equipos es de X horas.

  1. IMPACTO DEL TRABAJO DE ACTUALIZACION

Para la realización de los trabajos (SERA NECESARIO / NO SERÁ NECESARIO) el reinicio de los equipos por lo tanto (SE VERAN / NO SE VERAN) afectados los servicios de conectividad.

  1. TECNICO RESPONSABLE

Este informe fue elaborado por {Nombre y Apellido del Técnico}

MODELO DE FORMULARIO DE CAMBIO DE INFRAESTRUCTURA

  1. ANTECEDENTE DEL PROCESO LICITATORIO Y/O CONTRACTUAL

Descripción

Detalle

1

PROCESO LICITATORIO

2

CONTRATO

3

EMPRESA ADJUDICADA

  1. LISTA DE EQUIPOS

Descripción de Equipamiento

Número de Serie

Estado

  1. ESTADO ACTUAL (Revisión del estado de salud de los equipos)

  1. RECOMENDACIÓN (Que se cambia)

  1. JUSTIFICACIÓN DEL CAMBIO

  1. PROBLEMAS QUE SE RESOLVERAN CON EL CAMBIO

  1. RESPONSABLES DEL CAMBIO

  1. IMPACTO DE LOS TRABAJOS A REALIZAR (Impacto del cambio)

  1. ANALISIS DE RIESGO

RIESGO:

EQUIPO

TIEMPO

IMPACTO

OBSERVACION

  1. CONFIGURACION PASO A PASO

  1. MECANISMO DE PRUEBA

  1. PROCEDIMIENTO DE RESTABLECIMIENTO