'분류 전체보기'에 해당되는 글 21건

  1. 2014.06.30 chef 의 개요와 구성 요소 #1
  2. 2014.06.27 가상화 " Bare metal 이란 "
  3. 2014.06.18 NFV white paper #2
  4. 2014.06.17 NFV white paper #1
  5. 2014.06.11 OpenStack Icehouse 기사 해석
  6. 2014.06.11 Frame Relay의 이해
  7. 2014.06.10 VoLTE overview #2
  8. 2014.06.10 VoLTE 알카텔 루슨트 #1
  9. 2014.06.10 vmware vSphere
  10. 2014.06.10 VoLTE | EPS의 이해

chef 의 개요와 구성 요소 #1

2014. 6. 30. 17:26 from Cloud

출처:

http://docs.opscode.com/chef_overview.html


Welcome to Chef!

쉐프는 당신의 서버들과 서비스들을 삶으로 가져오면서, 복잡한 인프라를 코드로 변환하는 강력한 자동화 플랫폼이다. 당신은 클라우드에서,  사내에 혹은 하이브리드 에서 동작하던 간에, 쉐프는 당신의 네트웍 사이즈가 어떻던 간에, 어플리케이션들이 어떻게 설정되고, 도입되고, 관리되는지를 자동화 한다. 

쉐프는 단순환 컨셉으로 만들어진다. :  빌딩 블록으로써 제공하는 IT인프라와 자원 원시성의 중앙화된 모델링, 원하는 상태를 얻는다. 이들의 매우 단순한 컨셉은 쉐프가 지구상에서 가장 어려운 인프라의 난제를 다룰 수 있도록 해준다. 

쉐프 클라이언트에서 동작할 수 있는 어떤것이든 쉐프에 의해서 관리될 수 있다. 가령, 당신은 물리적인 장비, 가상 머신, 컨테이너, 혹은 클라우드 기반의 인스턴스를 관리할 수 있다. 쉐프 클라이언트는 노드에서 동작할 수 있는 agent 이며, 그것을 설정할 수 있는 실제의 동작을 수행한다. 쉐프 서버는 모든 설정 데이터에 대한 중앙의 저장소이다. 쉐프 클라이언트와 쉐프 서버는 서로 통신할 수 있다. 보안 통신을 위해서, 그들은 쉐프 클라이언트가 요청하면 서버가 응답을 확인해주는 공용의/ 사설의 키 조합을 사용한다. 


Chef Components

다음의 그림은 노드들, 서버들, 그리고 워크스테이션들을 포함하는 쉐프의 다양한 요소들 사이의 관계를 보여준다. 쉐프 클라이언트에 필요한 정보와 지시를 제공하고 그들의 작업을 할 수 있도록 하기 위해서,  이들 요소들은 함께 동작한다. 



Chef comprises three main elements: a server, one (or more) nodes, and at least one workstation.

  • 쉐프 서버는 구성내에 모든 노드들에 이용 가능한 허브로써 동작한다. 이것은 올바른 쿡북이 이용가능한지, 적당한 정책이 적용되고 있는지, 이전에 쉐프 클라이언트의 동작하는 동안 사용되었던 노드의 오브젝트가 현재의 쉐프 클라이언트 동작에 이용가능한지, 그리고 쉐프 클라이언트의 의해서 관리될 모든 노드들이 쉐프 서버에 등록되고 알려졌는지를 확인한다.  

  • 워크스테이션은 쿡북(과 레시피)가 쓰여지는 위치이다. (롤과 환경, 데이터 백과 같은) 정책 데이터가 정의되고, 데이터는 쉐프-레포 와 싱크가 된다. 그리고 데이터는 쉐프 서버로 업로드 된다. 

  • 각각의 노드는 각 노드가 필요로 하는 다양한 인프라의 자동화 업무를 수행하는 쉐프-클라이언트를 포함한다. 

쿡북들은 또한 매우 중요한 요소이며, 분리된 요소(서버, 노드, 워크스테이션과 함께) 로써 다루어질 수 있다. 일반적으로 쿡북들은 워크스트에션에서 쓰여지고, 관리되고, 쉐프 서버로 옮겨진다. 그리고 각 쉐프 클라이언트가 동작하는 동안, 쉐프 클라이언트에 의해서 노드들로 당겨진다. 


Nodes

하나의 노드는 쉐프 클라이언트에 의해서 관리될 수 있도록 설정되는 물리적, 가상의, 혹은 클라우드 장비이다.  다음의 노드 종류가 관리될 수 있다. 


하나의 클라우드 노드는 아마존 virtual private 클라우드, 오픈스택, 랙스페이스, 구글 컴퓨트엔진, Linode, MS Azure 같은 외부의 클라우드 기반 서비스에서 주관(제공)된다. 외부의 클라우드 기반의 서비스들에 대한 지원을 제공하는 나이프에 대해서, 플러그 인을 사용 할 수 있다. 클라우드 기반의 서비스들에서 인스턴스를 생성하기 위해서, 나이프가 이들 플러그 인을 사용할 수 있다. (인스턴스가) 생성되면, 쉐프 클라이언트가 이들 인스턴스들을 도입, 설정, 관리하기 위해서 사용될 수 있다. 


물리적 : 물리 노드는 보통 서버이거나 가상 머신이다. 그러나, 그것은 통신 채널로 정보를 받고, 보내고, 전송할 수 있는 네트워크에 붙어있는 어떤 액티브 장비가 될 수 있다. 다른말로, 하나의 물리 노드는 (쉐프 클라이언트가 동작할 수 있는, 그리고 쉐프 서버가 쉐프 클라이언트와 통신하도록 해주는 네트워크에 붙어있는) 어떤 액티브 장비이다. 


가상, 가상은 소프트웨어 구현으로 만 동작하는 장비이다. 그러나, 동작은 물리적 장비와 같다. 


네트워크 : 네트웍 노드는 네트워킹 장비이다. - 스위치, 라우터, vlan -쉐프 클라이언트에 의해서 관리되는.


노드에서 중요한 요소는 다음을 포함한다 

  • chef-client 쉐프 서버에서 등록된 모든 노드에서 로컬에서 동작하는 agent 이다

  • 쉐프 서버로 node 등록하고 인증한다

  • 노드 오브젝트를 생성한다

  • 쿡북을 동기화한다

  • 레시피, attribute, 모든 다른 종속성을 포함하는 각각 필요한 쿡북을 로딩하므로써 자원 모음을 compile한다

  • 노드를 설정하기 위한 적당한 필요한 행동을 취한다

  • 예외와 알림을 찾는다

 RSA public 페어는 chef-client 쉐프 서버에 저장된 데이터에 매번 접속할 필요가 있을때 인증하기 위해서 사용된다. 이것은 접속해서는 안되는 어떤 노드를 차단하고, 쉐프 서버에 관리될 노드를 확인한다 


*Ohai
ohai 는 노드에서 attribute 를 찾기 위해 사용되는 틀이며, chef client 기동 시 마다 client 에 이들 attribute를 제공한다. ohai 는 쉐프 클라이언트에 필요하며, 노드에 존재한다. (ohai는 쉐프 클라이언트 설치 과정 중에, 노드에 설치된다.) 

The types of attributes Ohai collects include (but are not limited to):
ohai가 수집하는 attribute종류는 다음을 포함한다. 
  • Platform details
  • Network usage
  • Memory usage
  • Processor usage
  • Kernel data
  • Host names
  • Fully qualified domain names
  • Other configuration details
ohai 에 의해서 수집되는 속성은 자동 속성이다. 이들 속성들은 쉐프 클라이언트의 노드 설정 작업이 끝난 후에, 쉐프 클라이언트가 이들 속성이 바뀌지 않고 남아있는지를 확인한다.


'Cloud' 카테고리의 다른 글

6wind Gate 솔루션 | Never Sacrifice Performance for Virtualization  (0) 2014.07.10
6wind gate 솔루션  (2) 2014.07.10
chef 개요와 구성요소 #2  (0) 2014.06.30
OpenStack Icehouse 기사 해석  (0) 2014.06.11
Posted by FindZone :

가상화 " Bare metal 이란 "

2014. 6. 27. 14:15 from 가상화

가상화 " Bare metal 이란 "


출처

http://searchservervirtualization.techtarget.com/definition/bare-metal-environment


A bare metal environment is a computer system or network in which a virtual machine is installed directly on hardware rather than within the host operating system (OS). The term "bare metal" refers to a hard disk, the usual medium on which a computer's OS is installed.


bare metal 환경이란 가상머신이 host OS 내에 설치된 다기 보다, 하드웨어에 직접 설치되는 컴퓨터 시스템 이나 네트워크를 말한다. “bare metal” 이라는 용어는 컴퓨터의 OS 설치되는 보통의 매체인, 하드디스크를 말한다




The term virtualization refers to the creation of a virtual (rather than actual) version of something, such as an OS, a server or a network resource. A virtual machine is a multi-user shared-resource OS that gives each user the impression of having sole control of all computer or network resources.

 

가상화라는 용어는 OS, 서버 혹은 네트워크 자원 같은 실제라기 보다 가상의 어떤 것의 생성을 말한다. 가상 머신은 유저에게 모든 컴퓨터나 네트워크 자원들의 유일한 제어를 가지도록 해주는 멀티-유저의 자원을 공유하는 OS 이다


https://wiki.openstack.org/wiki/Baremetal


Overview
The baremetal driver is a hypervisor driver for Openstack Nova Compute. Within the Openstack framework, it has the same role as the drivers for other hypervisors (libvirt, xen, etc), and yet it is presently unique in that the hardware is not virtualized - there is no hypervisor between the tenants and the physical hardware. 


baremetal  드라이버는 오픈스택 nova compute 대한 hypervisor 드라이버이다. 오픈스택 프레임웍 내에서, 그것은 다른 하이퍼바이저들에 대한 드라이버들과 동일한 역할을 가진다그러나 그것은 가상화되지 않은 하드웨어에 현재 특화된다- 테넌트들과 물리적 하드웨어 사이에는 하이퍼바이저가 없다


It exposes hardware via Openstack's API, using pluggable sub-drivers to deliver machine imaging (PXE) and power control (IPMI). With this, provisioning and management of physical hardware is accomplished using common cloud APIs and tools, such as Heat or salt-cloud. 


그것은 Openstack API 통해서 하드웨어를 노출시킨다. 플러그 가능한 서브 드라이버들을 사용하여. 이를 통해, 물리적 하드웨어의 프로비젼과 관리가 Heat salt-cloud 같은 공통의 클라우드 API 툴들을 사용하여 이루어진다


However, due to this unique situation, using the baremetal driver requires some additional preparation of its environment.

This driver was added to the Grizzly release, but it should be considered somewhat experimental at this point. See theBugs section for information and links to the Launchpad bug listings.


그러나, 이런 특별환 환경 때문에, baremetal 드라이버를 사용하는 것은 어떤 추가적인 환경의 준비를 요구한다. 드라이버는 Grizzly 릴리즈에 추가되었다. 하지만, 다소 지점에서 실험적이라고 간주되어야 한다. 정보에 대한 버그 부분, 그리고 launchpad 버그 리스트와 링크.


Terminology

There is also some terminology which baremetal introduces.


•Baremetal host and compute host are often used interchangeably to refer to the machine which runs the nova-compute and nova-baremetal-deploy-helper services (and possibly other services as well). This functions like a hypervisor, providing power management and imaging services.


baremetal 호스트와 컴퓨트 호스트는 종종 서로 교환 가능하게 사용된다. nova-compute nova-baremetal-deploy-helper service들을 구동하는 장비로 일컬어진다.   이것은 전원 관리와 image 서비스 제공하면서, 하이퍼바이저 처럼 기능한다.  


•Node and baremetal node refer to the physical machines which are controlled by the compute host. When a user requests that Nova start a baremetal instance, it is created on a baremetal node.


node baremetal node compute host 의해서 제어되는 물리적 장비를 말한다. nova baremetal instance 시작하라고 사용자가 요청할 , 그것은 baremetal node 생성된다.   


•A baremetal instance is a Nova instance created directly on a physical machine without any virtualization layer running underneath it. Nova retains both power control (via IPMI) and, in some situations, may retain network control (via Neutron and OpenFlow).


baremetal instance 아래에서 동작하는 어떤 가상화 층위 없이, 물리적인 장비에 직접 생성되는 nova instance 이다


•Deploy image is pair of specialized kernel and ramdisk images which are used by the compute host to write the user-specified image onto the baremetal node.


배포 이미지는 유저 특화된 이미지를 baremetal node 쓰기 위해서, compute node 의해서 사용되는 전문화된/특정 커널과 ramdisk 이미지의 짝이다


•Hardware is enrolled in the baremetal driver by adding its MAC addresses, physical characteristics (# CPUs, RAM, and disk space), and the IPMI credentials into the baremetal database. Without this information, the compute host has no knowledge of the baremetal node.


하드웨어는 주소, 물리적인 특성(CPU, RAM, disk 공간) , 그리고 IPMI 인증 정보를  baremetal database 추가하므로써, baremetal 드라이버에 등록된다. 이런 정보없이는, compute host baremetal node 대한 지식을 가지지 못한다


Use-cases

Here are a few ideas we have about potential use-cases for the baremetal driver. This isn't an exhaustive list -- there are doubtless many more interesting things which it can do!


•High-performance computing clusters.

•Computing tasks that require access to hardware devices which can't be virtualized.

     가상화 없는 하드웨어 디바이스에 대한 접근을 필요로 하는 컴퓨팅 작업


•Database hosting (some databases run poorly in a hypervisor).

     데이터베이스 호스딩 (어떤 것은 하이퍼바이저에서 형편없이 돈다)


•Or, rapidly deploying a cloud infrastructure ....

We (the  team) have a vision that Openstack can be used to deploy Openstack at a massive scale. We think the story of getting "from here to there" goes like this:

     빠르게 도입하는 클라우드 인프라


•First, do simple hardware provisioning with a base image that contains configuration-management software (chef/puppet/salt/etc). The CMS checks in with a central server to determine what packages to install, then installs and configures your applications. All this happens automatically after first-boot of any baremetal node.

      먼저, chef/puppet/salt 설정 관리 소프트웨어를 포함하는 base 이미지를 가지고 단순한 하드웨어 프로비젼을 한다. 중앙서버에서 CMS 체크인하여 설치할 패키지를 결정하고, 어플리케이션들을 설치/설정한다. 이런 일들은 어떤 baremetal node 처음 부팅 후에 모두 자동으로 일어난다.


•Then, accelerate provisioning by pre-installing your application software into the cloud image, but let a CMS still do all configuration.

      다음에, 클라우드 이미지로 이미 인스톨된 어플리케이션에 의해서 프로비젼을 빠르게 한다. 하지만, CMS 여전히 설정을 한다.


•Pre-install KVM and nova-compute into an image, and scale out your compute cluster by using baremetal driver to deploy nova-compute images. Do the same thing for Swift, proxy nodes, software load balancers, and so on.

     KVM nova-compute 이미지로 사전 설치하고, compute cluster baremetal 드라이브를 사용하여 nova compute 이미지를 배포하도록 스케일 시킨다.

      swift, proxy노드, 로드밸런서, 등등에 대해서도 같은 식으로 한다.


•Use Heat to orchestrate the deployment of an entire cloud.

     전체 클라우드의 배포를 하기위해서 Heat 쓴다


•Finally, run a mixture of baremetal nova-compute and KVM nova-compute in the same cloud (shared keystone and glance, but different tenants). Continuously deploy the cloud from the cloud using a common API.

    마지막으로, 같은 클라우드 내에서 baremetal nova-compute KVM nova-compute 섞어서 구동한다 (keystone glance 공유, 하지만 다른 테넌트)

     공통의 API 사용하여 클라우드로부터 클라우드를 계속해서 배포한다.


'가상화' 카테고리의 다른 글

vmware vSphere  (0) 2014.06.10
Posted by FindZone :

NFV white paper #2

2014. 6. 18. 10:33 from 규격 NFV

Relationship with Software Defined Networks (SDN)

그림2 에 보이는 것 처럼 NFV는 SDN 에 매우 보완적이다. 하지만 종속적이지 않다.(반대도 마찬가지).  비록 이들 두 개의 컨셉과 솔루션들이 합쳐질 수 있고, 잠재적으로 더 큰 가치가 발생되지만, NFV는 SDN 없이도 구현될 수 있다. 

  

NFV 의 목표는 많은 datacenter 들에서 현재 사용되는 기술들에 의존하는 non-SDN 메커니즘을 사용해서 달성 될 수 있다. 그러나, SDN에 의해서 제안되는 제어와 데이터 전송 평면의 분리에 의존하는 접근은 성능을 보다 향상 시키고, 기존의 구축과 호환을 단순화 시키며, 운용과 유지보수를 용이하게 한다. 

NFV 는 SDN이 동작할 수 있는 인프라를 제공하므로써 SDN 을 지원할 수 있다. 게다가. NFV 는 상용 서버와 스위치들을 사용하기 위해 SDN 과 가깝게 제휴한다. 

우리는 ONF같은 SDN의 작업을 진행하는 단체와 가깝게 작업할 의도를 가진다. 


Fields of Application and Use Cases

NFV는 이동통신 망과 유션망에 어떤 데이터 플레인 패킷 전송 평면, 그리고 제어 평면 기능에 이용 가능하다. 잠재적인 예제들은 다음을 포함한다. (순서는 의미 없음) 


  • Switching elements: BNG, CG-NAT, routers. 

  • Mobile network nodes: HLR/HSS, MME, SGSN, GGSN/PDN-GW, RNC, Node B, eNode B. 

  • Functions contained in home routers and set top boxes to create virtualised home environments. 

     가상화된 홈 환경을 만들 수 있는 홈 라우터와 세톱 박스에 포함되는 기능들 


  • Tunnelling gateway elements: IPSec/SSL VPN gateways. 

  • Traffic analysis: DPI, QoE measurement. 

  • Service Assurance, SLA monitoring, Test and Diagnostics. 

  • NGN signalling: SBCs, IMS. 

  • Converged and network-wide functions: AAA servers, policy control and charging platforms. 

  • Application-level optimisation: CDNs, Cache Servers, Load Balancers, Application Accelerators. 

  • Security functions: Firewalls, virus scanners, intrusion detection systems, spam protection. 


가상화가 가장 혜택을 얻을 수 있는 그 네트워크 기능들을 확인하기 위해서, 추가적인 스터디가 요구된다

software 기반의 DPI , 향상된 트래픽 분석과 다차원 리포팅, 그리고 실제 회선 속도로 off-the-shelf 하드웨어 작업의 가능성을 보여준다. software 기반의 DPI 는 네트워크에서 널리 보급되어 도입 수 있다. 구축, 업데이트, 시험, 그리고 워크로드를 변화에 맞게 확장할 뿐만 아니라, 더 낳은 분석 기능을 제공한다. 

  • IP node 구현, 가령, 표준 하이 엔드 서버들에서 CG-NAT and BRAS 기능을 제공한다. 성능 향상에 대한 요구가 진화함에 따라, 하드웨어의 효과적인 재사용에 대한 기회를 제공한다. 

  • 고객의 소재지에 전용 하드웨어 어플라이언스를 현재 필요로 하는 서비스들과 기능들에 대한 가상화 (홈 환경 에서 blanch office 에서 큰 기업 소재지까지). 이런 것들을 포함한다 : ..   라우터, 허브, 셋톱박스를 포함하는 홈 환경의 가상화는 잠재적으로, Ipv6 로의 더 간단하고 원활한 이동을 가능하게 한다. 그리고 에너지 소모를 줄이고, 브로드밴드 어플리케이션과 서비스들이 진화함에 따르는 연속적인 하드웨어 업데이트를 피하도록 해준다. 

  •  CDN의 가상화. 더 쉽게 CDS 서비스를 확장하고 스케일링하는 초기의 목표와, 그리고 다른 SDA 를 설치될 수 있음에 의해 PoPs 의하드웨어 재사용을 최대화 하는 목적을 가진다. CDN의 가상화는 또한 잠재적 비지니스 파트너로부터(외부 CND제공자 같은)  CDN서비스의 호스팅을 허용한다. 

  • 더 비용 효율적인 생산 환경에 타게팅하는 모바일 코어 네트워크의 가상화. 그것은 네트웍 사업자가 증가하는 트래픽 요구를 모바일 망에서 다룰 수 있도록 해준다. 그리고 더 낳은 자원의 활용, 더 유연한 망 관리(node 업데이트를 위해서 하드웨어를 바꿀 필요없는), 하드웨어의 통합, 더 쉬운 멀티 테넌지의 지원, 그리고 새로운 서비스의 더 빠른 설정을 이끈다. 모바일 망에서 NFV 는  또한 (가령 M2M ) 특정 서비스들에 대한 코어 망 instances 들을 생성하기 위해서 사용될 수 있다. 

  • 엔터프라이즈에 대한 cloud과 네트워킹의 조직화된 구현. 온디멘드 서비스의 제공을 가능하게 하며, 엔터프라이즈 고객과 네트워크 사업자에게 자본 효용성을 제공한다.

  • Hybrid fibre-DSL 은 street cabinet, 지하, 그리고 극지방에 외부 네트워크에 깊에 위치한다. 이들 노드들은 아주 낮은 전력 소모와 낮은/제로 유지보수가 필요하다. 가상화는 원격 노드에 하드웨어 복잡성을 줄이기 위해서 사용될 수 있다. 그리고 에너지를 줄이고, 서비스 진화에 따른 향상된 미래의 증명을 제공한다. 

  • Network Functions Virtualisation can also be used to provide an efficient production environment which can commonly be used by different applications, users and tenants, thus 

NFV 는 효율적인 생산 환경을 제공하기 위해서 사용될 수 있다. 그것은 보통 다른 어플리케이션들과 user, tenant 에 의해서 사용된다. 따라서, 하나의 네트워크에 대한 몇개의 버젼과 개정판의 공존을 제공한다. 

'규격 NFV' 카테고리의 다른 글

NFV white paper #1  (0) 2014.06.17
Posted by FindZone :

NFV white paper #1

2014. 6. 17. 10:55 from 규격 NFV

Network Functions Virtualisation
An Introduction, Benefits, Enablers, Challenges & Call for Action 

Executive Summary
네트워크 사업자의 네트워크는 전용 하드웨어 어플라이언스의 대규모 이면서 증가하는 다양성으로 채워집니다새로운 네트워크 서비스를 시작하는 것은 종종  다른 다양성을 필요로 하며, 이들 박스들을 수용하는 공간과 전원을 찾는 것이 점점 어려워지고 있습니다. ; 에너지 비용 증가와 자본 투자의 도전, 그리고 점점 복잡한 하드웨어 기반의 어플라이언스를 디자인하고, 통합하고 운영하는 필요한 기술의 희소성까지 혼합됩니다


또한, 하드웨어 기반의 어플라이언스는 빠른 속도로 end of life 다다른다거의 없거나 전혀없는 수익으로 반복 되는 -조달 -디자인 통합 배포 사이클을 많이 필요로 하면서.   나쁜 , 하드웨어의 수명주기는 기술 서비스 혁신 가속화로 짧아지고 있습니다. 새로운 수익을 얻는 네트워크 서비스 출시를 억제하고, 점점 네트워크 중심 연결된 세계에서 혁신을 제한합니다


네트워크 기능 가상화는 (데이터 센터, 네트워크 노드와 최종 사용자 구내에 위치 수있는 업계 표준의 높은 볼륨 서버, 스위치 스토리지에 많은 네트워크 장비 유형을 통합하는) 표준 IT 가상화 기술을 활용하여 이러한 문제를 해결하는 것을 목표로 하고 있다. 우리는 네트워크 기능의 가상화를 유선 모바일 네트워크 인프라의 모든 데이터 플레인 패킷 처리 제어 평면 기능에 적용 있다 생각합니다.



우리는 NFV 소프트웨어 정의 네트워킹 (SDN) 매우 보완적인 것으로 것을 강조하고 싶습니다 주제는 상호 이익이 있지만 서로 종속되지 않습니다네트워크 기능은 SDN 없이 가상화 되고 구축될 있으며, 반대도 가능하다.


가상화 네트워크 기능은 잠재적으로 많은 혜택을 제공하나, 이에 국한되지는 않는다 :

  • 장비 비용의 감소와 통함된 장비 IT 산업의 규모의 경제를 활용하여 전력 소비 감소.

혁신의 전형적인 네트워크 운영자 사이클을 최소화하여 시장 출시 시간의 속도를 증가하드웨어 기반의 기능에 대한 투자를 커버하는 필요한 규모의 경제는 (기능 진화의 실현 가능한 다른 형태를 만들면서), 이상 소프트웨어 기반의 개발에 적용 없습니다네트워크 기능 가상화는 네트워크 운영자가 눈에 띄게 성숙 주기를 줄일 있도록 해줘야 합니다.

  • 네트워크 어플라이언스 멀티 버전과 다른 응용 프로그램, 사용자와 세입자를 위한 단일 플랫폼을 사용할 있도록 멀티 테넌시 (multi-tenancy) 가용성 것은 네트워크 사업자가 서비스를 통해서, 그리고 다른 고객 기반을 통해서 자원을 공유 있게 해줍니다.
  • 지리 또는 고객 집합을 기준으로 대상 서비스의 도입이 가능합니다서비스가 필요한 만큼 빠르게 확장 혹은 축소 있습니다.
  • 다양한 생태계를 활성화하고 개방을 권장합니다그것은, 훨씬 낮은 위험에 신속하게 새로운 서비스와 새로운 수익원을 가지고 많은 혁신을 장려하면서,  순수한 소프트웨어 참가자, 작은 선수와 학계로 가상 어플라이언스 시장을 엽니다

이러한 이점을 활용하기 위해 해결해야 기술적인 도전은 여러 가지가 있을 있습니다 :

  • 다른 하드웨어 공급 업체 간에, 그리고 다른 hypervisor 간에 호환되는 고성능 가상화된 네트워크 장비를 달성.
  • 네트워크 사업자 OSS / BSS 재사용하는 완전히 가상화된 네트워크 플랫폼으로 효율적인 마이그레이션 경로를 가능하게 하면서맞춤형 하드웨어 기반 네트워크 플랫폼과 공존 달성. OSS / BSS 개발은 네트워크 기능 가상화된 모델 인라인으로 이동해야하고 , 이것이 SDN 역할을 있는 곳이다.
  • 공격과 잘못된 설정으로부터 보안을 보장하면서 (특히 기존의 관리 시스템과 함께) 여러 가상 네트워크 장치에 대한 관리와 오케스트레이팅.
  • 모든 기능이 자동화 있을 때만, 네트워크 기능 가상화는 확장될 것이다.
  • 하드웨어 소프트웨어 장애에 대한 회복/복원력의 적절한 수준을 보장한다.
  • 다른 공급 업체의 다양한 가상 어플라이언스를 통합네트워크 운영자는 상당한 통합 비용을 들이지 않고, 종속을 피하면서, 다른 업체의 하드웨어와 다른 업체의 가상 어플라이언스, 그리고 다른 공급 업체의 hypervisor "믹스 & 매치" 있어야합니다.


백서의 저자는 이러한 기술 과제에 대한 솔루션들이 있으며, 또는 제공 수있다고 (어떤 경우에는 증명되었고) 믿으며, IT 네트워크 산업의 공동 협력 노력에 자신의 상호 보완적인 전문 지식과 자원을 결합하기를 권합니다. 이러한 기술적 과제를 해결하고, 상호 운용 규모의 경제를 가지며, 표준화 접근 방법과 일반적인 아키텍처에 대한 광범위한 합의에 도달하기 위하여.

발전을 가속화하기 위해 열린 회원과 새로운 네트워크 사업자 주도의 산업 규격 그룹 (ISG) 백서에 설명 된대로 네트워크 기능의 가상화에 대한 기술적인 도전을 통해 작동하는 ETSI 후원으로 설치되고있다 ETSI ISG 형식적인 제작 과정이 시작되어  2012  11 중순 까지 완료 예정이다.

네트워크 기능의 가상화를 위해 앞으로 방법을 차트하기 위해 넓은 산업은이 백서에 설명 된대로 피드백을 제공해야한다.




'규격 NFV' 카테고리의 다른 글

NFV white paper #2  (0) 2014.06.18
Posted by FindZone :

OpenStack Icehouse 기사 해석

2014. 6. 11. 14:26 from Cloud

출처

OpenStack's Icehouse release has arrived, bearing stress-busting gifts for hollow-eyed cloud administrators.
푹꺼진 눈의 cloud 관리자를 위해서 stress를 푸는 선물을 견디면서 , icehouse 가 release되었다. 

The distribution was released on Thursday, and – finally – gives admins some upgrading features for shifting OpenStack's "Nova" compute component to the new version without having to pull the plug on their entire install.
새 버젼이 마침내 배포되었다. nova compute 요소를 새로운 버젼으로 updade하는 기능을 제공한다 (전체 버젼의 plug를 빼지 않고 할 수 있는)

"Limited live upgrades are now supported," the release notes say. "This enables deployers to upgrade controller infrastructure first, and subsequently upgrade individual compute nodes without requiring downtime of the entire cloud to complete.”
“제한된 live upgrade가 이제 지원된다” 고 release note에 나온다.  controller 를 먼저 업그레이드하고, 다음 개별 compute node를 할 수 있다. (전체 cloud 의 downtime 없이도 된다는 것)

Icehouse marks the ninth release of the open source data center management software, which was created in mid-2010 when NASA and Rackspace open sourced some of the software with which they had built their IT.

Since then, major companies including HP and Red Hat have made significant commercial bets on the software, and it has become an area of unusual collaboration within the tech industry. Even proprietary giant Oracle is using it in some capacity and has poured money into the OpenStack Foundation (though has not contributed code back – yet).

That doesn't mean the software lacks problems, though – OpenStack suffers from immaturity in a few areas due to both its youth and the expansive nature of the project.
문제가 적다는 걸 의미하지는 않는다.  Openstack은 프로젝트의 젊음과 확장하는 특성 때문에 몇 개의 area에서 미숙함으로 고생하고 있다.

Icehouse comes with 2,902 bug fixes and 350 new features. Its contributor list has grown as well to over 1,200 individuals – a 32 per cent increase over the previous Havana release.
icehouse는 2902 개의 버그를 픽스했고, 350개의 새로운 기능을 가진다. 기여자 목록은 1200 명 까지 늘었다. (이전 havana버젼에서 32% 증가한)

Besides live upgrades, OpenStack's "Neutron" networking module has been given closer integration with "Nova" compute for better provisioning. It has also been given support via drivers and plugins for OpenDaylight, OneConvergence, Nuage, and IBM SDN-VE.

Storage has been upgraded as well, with the "Swift" object store gaining discoverability features that let admins query more information via an API call, and the "Cinder" block store has been given greater capabilities for migrating data within tiered storage installs. Other services such as orchestration telemetry and dashboards have been given upgrades as well.

 Cinder 블록 store 는 연결된 스토리지 설치 내에서 data 마이그레이션을 위한 더 낳은 성능 을 가진다. 
orchestration telemetry와 대쉬보드 등의 다른 서비스 또한 upgrade 되었다. 

The "Keystone" identity service has been given a major series of upgrades to make it easier to use a single credential across hybrid OpenSack environments, along with self-service capabilities as well.
“Keystone” 은 major 업그레이드 되었다. hybrid openstack 환경에서 single credential 을 더 사용하기 쉽도록 했다. 

As OpenStack is such an expansive project at this stage in its life, we'd direct interested readers to the release notes for more information.

With Icehouse, Red Hat's belief that there will be major money in OpenStack environments by the end of 2015 seems a safe bet.

"The evolving maturation and refinement that we see in Icehouse make it possible for OpenStack users to support application developers with the services they need to develop, deploy and iterate on apps at the speeds they need to remain competitive," said Jonathan Bryce, executive director of the OpenStack Foundation, in a canned press release. ®  

'Cloud' 카테고리의 다른 글

6wind Gate 솔루션 | Never Sacrifice Performance for Virtualization  (0) 2014.07.10
6wind gate 솔루션  (2) 2014.07.10
chef 개요와 구성요소 #2  (0) 2014.06.30
chef 의 개요와 구성 요소 #1  (0) 2014.06.30
Posted by FindZone :

Frame Relay의 이해

2014. 6. 11. 09:34 from 네트워크
Frame-Relay

X.25 -> F.R -> ATM -> MPLS  로 변해왔음

전용선은 자신의 bandwidth가 제공되지만 안 쓸때는 논다
FR의 개념은 공통의 pool 을 사고, 여러회선이 나눠 쓸수 있다. 안쓸때는 다른사람이 쓴다.
2G -> 3G 로 overprovistion 해서 쓸수 있다. 모든 유저가 다 쓰지는 않기 때문에

각 provider는 더 싼 비용으로 회선을 팔 수 있다




CIR -  최소 보장 bandwidth . 가령 500kbps
LAR - 물리적 회선 속도  . 가령 2Mbps
LMI - 
DLCI - 특별한 mac을 써서 양단간 circuit 에 연결을 해준다
PVC - Arizona to Frorida 500 kbps
           Arizona to Califonia  800 kbos
          1.3 mbps < 2 mbps 물리 라인
          1.3mbps 가 회선 비용이 된다

Hub and spoke FR design

     - CA -> AZ -> FR 로 거쳐 가야만 하는 것

 




패러다임 변화
- 전용선은 두 종단간에만 연결되지만, FR 은 하나의 S0 가 여러 곳으로 PVC연결로 가능하다
DLCI 범위 어떤 거라도 16 ~ 1204 사이에 가능



로컬 significant 다.  그래서 나의 interface 에서 같은 DLCI만 아니면 된다

- Hub and spoke :  거쳐 가야해서 delay 가 있을 수 있다
- full mesh : 이상적이지만 모든 회선 비용을 해야하니 비싸다
- partial : 적당하다

Split horizon : routing 알고리즘(RIP?)  에서 루핑 방지 mechanism 을 꺼야만 한다

MO 의 라우팅 172x.x.x. 가 AZ 전달되었다가, 다시 CA로 전달이 되지 않기 때문




'네트워크' 카테고리의 다른 글

IPv6 변환기술  (0) 2014.09.06
Posted by FindZone :

VoLTE overview #2

2014. 6. 10. 14:47 from 모바일 / 서비스

퍼갈때는 댓글 달아주시고, 출처 명기 해 주세요.

 

VoLTE overview #2

- VoLTE 가 어필하는 비지니스 이점
     . CAPEX, OPEX contol
     . fixed, mobile, web 에 대한 서비스 convergence

- Advanced communication 네트웍을 위해, VoLTE 가 몇개의 특화 기능을 더한다
     . QoS
     . 호 진행중에, VoLTE 에서 2G/3G 로의 graceful handover
     . 긴급 통화
     . IN service migration
     . SMS over IP
     . IMS 중심의 서비스

- 위부터 4개 아이템은 Application provider 의 Mobile VoIP 에 비교했을 때, VoLTE 사업자의 서비스 차별점이다

- 그들은 global VoLTE "ecosystem" 을 위해서 최소한의 필수 3gpp 규격을 확인했다
- Global ecosystem 은 필요하다
     . 4G LTE 의 Voice telephony가 성능, scale, 연동 호환, 로밍, 다양한 스마트폰 지원을 위해서
- 녹색은 기존 4G LTE 네트웍에 VoLTE 를 위해 추가 도입된 것을 나타냄
 
 

QoS

- 가입자가 호를 발신하거나 받을 때, 4G LTE 는 QCI=1 로 bearer를 생성한다 
- Mobile voice telephony 는 critical 서비스다
     . 가입자는 reliable 서비스를 기대하고 필요로 한다
- VoLTE 에서의 서비스 차별화 
     . VoLTE 가 application provider의 최적화되지 않은 보이스보다 더 낳은 성능을 제공
     . VoLTE 의 최적화된 voice bearer 가 이런 필요를 만족
- QCI=1 bearer 는 radio 연결, cell 에서부터 back haul 까지 공유된 자원을 경쟁하는 다른 data application 에 방해받지 않는다

Graceful Voice Call Handover
- 4G 에서 2G/3G 로의 live voice call 의 사업자 내 핸드오버는 4G coverage 를 벗어나도 호가 유지되므로써, 가입자에게 신뢰를 준다
- 이것도 Application provider의 최적화되지 않은 voice 와의 또 다른 차별점이 된다

- 이러한 Graceful 핸드오버는 SR-VCC 라는 기술(3gpp 23.216, 23.237, 24.237) 로 가능하다
     . Voice interruption은 아주 짧다. 300 ms 이하로, 가입자는 종종 못 알아챈다

SR-VCC 동작
   (1) VoLTE 호 진행중에, eNB 가 2G 에서 3G 로 핸드오버를 트리거 한다 
   (2) eNB 가 MME 에게 핸드오버 동안 뭘 할지 지시한다
     . 핸드오버 되는 서비스 (CS only, CS/PS 둘다) , 타겟 cell 
   (3) MME 가 2G/3G MSC와 SR-VCC 절차를 트리거 한다 (sv interface)
     . eNB 의 핸드오버 요청에 cell ID를 보고 MSC 를 선택한다 
   (4) MSC 가 핸드오버를 준비하고, 타겟 2G/3G cell 에 신호를 보낸다. 그리고 (가입자의 식별자를 사용해) VoLTE 네트웍과 세션을 개시한다
     . STN-SR 을 사용
     . SCC-AS 하에서, VoLTE 네트웍이 음성 세션을 4G 에서 2G/3G CS voice 로 스위치 한다
     . 2G/3G CS 음성으로 스위치 한후에, MSC가 MME에 알린다
     . MME는 UE 에게 4G에서 2G/3G 로 핸드오버하라고 지시한다 


'모바일 / 서비스' 카테고리의 다른 글

단말기 SIM, Ki인증  (0) 2014.10.02
IMEI, IMSI, MSISDN 단말식별자  (0) 2014.10.02
VoLTE 알카텔 루슨트 #1  (0) 2014.06.10
VoLTE | EPS의 이해  (0) 2014.06.10
VoLTE call flow의 이해  (0) 2014.06.10
Posted by FindZone :
알카텔-루슨트의 VoLTE 서비스를 정리했습니다.
퍼갈 때는 댓글 달아주시고, 출처 명기 해 주세요.

소개
- VoLTE 는 4G LTE all IP 네트웍을 위해 디자인된다
- HD voice 를 제공한다
- voice 를 video,converged IP messaging, web, social networking 과 섞이게 하면서 매력적인 서비스를 만들어 낸다
     . 다른 미디어에 고립되어 조각난 communition 을 조화 시키면서 더 많은 conversation을 유도/불러일으킨다

- VoLTE operator는 낮은 risk 로 경쟁적 freedom 을 가진다
     . Voice, video, messaging , converge with web(web RTC)를 제공할 수 있다

- application provider 와 파트너가 될 수 있다
     . communication 서비스에 application 개발자의 innovation 을 이끌어낸다

- 웹 같은 인접한 market을 활성화 시키는 기능, mobile 헬스케어 같은 전력 산업을 위해 빠르게 customize 한 기능을 가능하게 함

알카텔은 
- 더 낳은 user experience 제공 : voice 만큼 쉬운 video 와 messaging 제공
- Connected communities : telecom 과 web 기반의 네트웍을 조화시킴
     . Social network 으로 친구, 가족과 쉽게 접속할 수 있다
     . WebRTC 를 통해,  web 브라우저를 가진 어느 누구와도 서비스를 확장시킨다
- 혁신을 통한 Open : 개발자가 쓰기 쉬운 open API 를 가진다


- service provide 는 4G LTE 가 application provide 를 더 강력한 위치에 놓이게 한다는 것을 인식했다
- VoLTE 는 4G LTE 네트웍에서 mobile voice 의 스펙트럼 효율을 최적화 한다 
     . RoHC, SPS, TTI 같은 방법
- VoLTE 가 voice service 를 초기에 제공하는 유일한 방법은 아니지만, 최선의 방법이라고 판단된다

Voice Option
- 4G LTE 가입자를 위한 voice service 제공하는 4가지 주요 방법

(1) VoLTE
- LTE 네트웍으로 voice application 을 타이트하게 연결하는 all-IP 방법이다
- 2012', 13' 에 초기 도입 계획, 14' 에는 넓게 사용될 것으로 보임

(2) Circuit switched fallback (CSFB)
- 사업자가 VoLTE 의 도입이 늦어질 때, interim LTE voice 서비스를 위한 방법
- CSFB 는 legacy 2G/3G circuit voice 이며, narrowband 이다 (HD 음성은 드물다)
     . video 나 webRTC 같은 all IP 서비스를 제공 못함
- 음성호의 발신이나 착신호를 받게되면, 4G LTE 를 2G GSM /3G UMTS 로 fall back 시킨다

(3) Simultaneous voice and LTE (SV-LTE)
- CDMA 사업자를 위해 장비 제조사에 의해 구현될 수 있다
- SV-LTE 폰은 두개의 동시 radio 를 지원한다
   . 한 radio 는 circuit voice 를 위해 CDMA 1xRTT 를 제공하고, 다른 radio 는 IP data를 위한 4G LTE 를 제공한다

(4) Partnering with application and content providers
- Application and content provide(ACPs) 는 때로 OTT provider 로 간주된다
     . 여기서는 application provide 로 간주한다
- application provide 와 경쟁하기 보다, 파트너를 한다
     . application 개발의 혁신을 통해 바로 operator 를 fuel 한다 (비록 파트너 창고로 이익이 옮겨가지만)
     . 표준이 아닌 방법을 쓰면, 사업자측에 custom 개발비가 야기

VoLTE 의 작동
- 4G LTE 는 향상된 스펙트럼 효율, higher bandwidth, 감소된 latency, QoS 제공
- seamless IP 연결성을 제공
- 4G LTE 는 UE 에서 PDN 까지의 IP traffic 을 route 하기 위해, bearer 의 컨셉을 쓴다
     . bearer 는 정의된 QoS를 가지는 IP data session 이다
- UE 가 4G LTE 네트웍에 접속할 때 생성되는 "default bearer" 외에도, 네트웍은 application 의 요청에 따라 bearer를 생성하고 해제한다
     . 이런 추가 bearer 를 dedicated bearer 라고 부른다

- multiple bearer 가 동시에 하나의 UE 에 돌아간다, 가령, streaming video, SIP signalling, in-progress VoLTE call

- 각 이들 서비스들은 다른 QoS요구사항을 가지고, 그룹으로 이것을을 관리하면 multiple 서비스를 동시에 잘 다룰 수 있다
- first come, first service 기반으로 모든것을 다루는 2G, 3G packet data 서비스와 달리, 
      4G LTE bearer 구조는 각 서비스들이 QoS를 받도록 보장해서, 
     동시에 multiple application 을 쓸 때도 QoE 를 가능하게 함

- 가령, streaming video 는 missed bit 가 많으면 사람눈에 바로 띄게 된다, 하지만, streaming 은 잠시동안 안전히 버퍼 된다
- 반대로, 실시간 voice 는 (눈 만큼 귀가 빨리 알아채지 않음) 더 많은 missed bit 을 견딜 수 있지만, 
     사람간의 통신의 친밀감을 보장하고, 과도한 long jitter buffer 를 가지는 위성전화나 VoIP call 에 있는 talk-over 문제를 피하기 위해 delay는 최소화 되어야 한다

- 각, bearer 를 위해서, 4G LTE 는 QCI 를 할당한다
     . GBR,  non-GBR 로 level 을 할당
     . 이들 QCI 는 UE 에서 PDN 까지 bearer 가 다루어지는지를 결정한다 


'모바일 / 서비스' 카테고리의 다른 글

단말기 SIM, Ki인증  (0) 2014.10.02
IMEI, IMSI, MSISDN 단말식별자  (0) 2014.10.02
VoLTE overview #2  (0) 2014.06.10
VoLTE | EPS의 이해  (0) 2014.06.10
VoLTE call flow의 이해  (0) 2014.06.10
Posted by FindZone :

vmware vSphere

2014. 6. 10. 14:45 from 가상화



vmware 하면 쉽게 생각해서 mac 위에 window 를 가상머신으로 쓸 수 있게 해주는 프로그램을 떠올리실 수 있을겁니다.

vmware 가 이제는 전세계 가상화 시장을 크게 점유하면서 엄청난 회사로 커가고 있다고 하네요.

IT 의 서버 가상화도 거스를 수 없는 대세이구요.

 


http://www.vmware.com

 

vmware vSphere 는 vmware 사의 서버가상화 솔루션 입니다. 가상화 과정에서 가장 fundamental 코스입니다.

vmware vSphere 에 대한 내용을 정리했습니다.

퍼가실때는 퍼간다고 댓글달아주시고, 출처 표시해주세요.


- 가상화는 blade 와 궁합이 잘 맞음
     . HP, IBM.. 등 blade 서버로 구축을 많이 함

- 네트웍의 개념이 달라진다
  . switch 개념이 기존이 p switch 뿐 아니라, vm 의 v nic 에서 부터 (v switch) 로 묶인다
  . 보통 L2 정도를 다루지만, L4~ , L7(보안) 까지 다루기도 한다 

 

 

                                          

 


- 업체에서 가상화 환경에서 성능 문제를 많이 얘기한다
  . 성능에 가장 중요한 요소가 storage 이다  
  . 가상화, storage 는 디자인이 중요하다
  . 실제로는 제대로 구성하면 성능에 문제가 안된다, 호주,일본 등 전세계에서 폭넓게 사용됨 (우리나라는 1%에 불과)
      . 우리나라는 프로젝트 기간이 짧아 디자인이 어렵다, 그럼 성능 문제가 나온다

- 가상화는 협업이 중요
  . 네트웍, 서버, storage 다 볼 수 있어야 한다
  . 전체 구성을 그리고 통제할 수 있는 사람이 가상화를 할 수 있다

- Migration
     . 서버간 VM 이동 (live 로)
     . 가상 스토리지내에서 스토리지 LUN? 의 이동
     . 스냅샷, live migration, provisioning ..

- 기존 인프라가 엉망이면, 가상화로 가도 문제다
     . 가상화를 가면서 다 새롭게 만들어야 한다, 그래서 힘든게 많다

- 가상화는 기존의 보안 환경과 다르게 접근
    . host 보안과는 다름. 보안 포인트가 다르다
    . 아직 활용이 잘 안되니, 보안 얘기가 수면에 나오지 않는다. (성능 얘기가 주요)

- 이중화
     . (ESXI) BoX 를 묶는 것을 cluster 라고 한다
     . HA, DRS 
     . 이중화 개념이 더 중요하다. box 하나 장애나면 10개 이상의 서비스가 영향받기 때문
     . DRS 는 장비마다 오전, 오후 병목 현상이 다를 때, VM을 넘기는 것
          + load 에 따른 자원 균형을 잡아주는 것
          + 수동, 자동 모드 있다
          + 100 여개 vm 옮겨다니면 어느 box 에 있는지 알수 없음 (h/w에 s/w 를 정해서 관리하는, 기존 관리 조직에서 받아 들일 수 있을까 ?)
          + 즉, 가상화로 가면 관리환경의 업무환경(IT I) 이 바뀌어야 한다는 말 

- 가상화가 되면 비용 절감/ 인력 절감
  . 기존 h/w 100box 돌던 게, 10 box 로 줄어든다
  . 초기 구축 비용이 엄청 들어간다
  . ROI 를 길게 본다


- 가상화 위에 솔루션 (cloud 환경, desktop 가상화..) 이 붙어 나가야 한다
     . 가상화 자체는 별개 아니지만, 기본이 된다

- 초기의 가상화 (Host based 가상화)
     . h/w box 위에  OS , Hyper visor app 위에 , V H/W  위에 OS, APP 이 된다는 것
     . driver 가 O/S 에 속해서 관리됨 

 

 



- Hyper visor 기능 
     . 물리적 H/W와 가상머신의 H/W를 연결 해준다 (분리 해 준다는 얘기)
     . 이게 가상화의 핵심이다
     . H/W 를 추상화 시켜 준다 (Guest 로부터 Host 를 숨겨준다)

     . driver 가 hyper visor 에 들어간다
     . H/W NIC 를 공유해서 쓸 수 있게 해준다
     . H/W NIC가 바뀌면 diriver 가 바뀌지만,  V H/W 영역 V NIC 는 바뀔 필요없음 
     . CPU AMD 계열이면 가능


- 가상화가 갑자기 이슈가 된 이유는 ?
     . 데이터 센터에서 need가 생김
     . 아무리 넓게 지어도, 전기, 공간..  을 많이 차지
     . 전세계 전기량의 30% 정도를 데이터 센터에서 사용
     . CPU 사용량이 3% 피크 타임에 5%가 사용되기 때문
  " 노는 장비의 통합 이슈가 생김 " 

- SDN 다음의 남은, 중요 가상화 이슈는 storage 가상화 
      . 아직은 architecture 표준화는 안 나왔다
       . vmware 가 storage 업체도 인수? 

- 가상화가 어려운 이유는 여러가지 기술들이 다 포함되어 있기 때문
- 우리가 배우는 건 머신 가상화다

- 가상화는 H/W 리소스를 공유하니까 성능 이슈가 크다
     . 가상화의 기본 개념이 H/W를 공유하는 것
     . resource overcommit? 을 잘해야 한다
     . 똑같은 시간에 같이 쓰는 병목현상을 유동성 있게 써야..
    * 실제로 많이 보는데는 CPI/mem 만 보지만, 병목은 network, storage 에서 생긴다

- Public cloud (가령, 아마존) 은 벤더 솔루션보다 open source 기반으로 구현됨
     . 업데이트, 유지보수의 어려움 
          + 소스 코드 분석 어렵다, 주석없다
     . 처음에 싸게하면, 나중에 유지보수를 많이 친다더라
 - private cloud 는 우리 서비스 센터나 망을 우리가 관리하는 개념
 - public cloud 개념은 우리 것이 아니고, 여럿이 같이 쓰는 개념

- market share
     . 80% wmware, 20% citrix, MS 1% (가능성은 있다),, 나머지는 한자리수
     . desktop 가상화는 citrix 가 50~60%, wmware 가 40~50%
     . application 가상화는 citrix가 독보적

VMWARE 
- 최근에는 대부분 금융권 (citi bank.,, ) 에서 main frame을 unix 로 한다
     . HP, IBM..  X86 
     . blade 마켓이 30~60% 까지 올라왔다
     . 가상화 엔지니어가 없어서 비지니스를 못한다 


'가상화' 카테고리의 다른 글

가상화 " Bare metal 이란 "  (0) 2014.06.27
Posted by FindZone :
VoLTE 에 대해서 알아보겠습니다.
EPS 망 구성에 대한 설명을 이해하기 쉽게한 동영상이있어서 소개합니다.

EPS Architecture 



Voice 를 다루기 위해서 EPC 외의 3rd network 인 IMS 망을 이용한다

- Radio network에, eNB가 서로 묶여서 (community of peer로) 동작한다. 이게 E-UTRAN이다

- 코어에는 4개의 중요 노드가 있다. (MME, S-GW, P-GW, HSS) 

- MME와 S-GW 를 묶어서 (Circuit 망에서의)  SGSN 또는 PDSN 과 같은 역할을 한다고 보면 된다. 
      . MME 는  SGSN-GW 로 생각하면 되고,
      . S-GW 는 Data server, data g/w 로 보면 된다

- MME와 S-GW 는 가입자 인증,허가 등등을 관리하고, bearer path 를 설정

- HSS 는 HLR 이 진화된 것이다. 가입자 database 이상 아니다

     . 가입자 관련 정보, 가입자 인증 관련 정보
- P-GW 는 IP anchor 이다
     . HA (home agent ) 나 GGSN 과 같은 역할이다

GTP overview
- GTP = GPRS tunneling protocol
- UMTS 와 LTE 간에 차이점을 알아본다
- GTP 터널은 PDP context (packet data protocol) 와 연관이 있다


- 차이점은 PDP context 대신에  default/dedicated bearer 를 쓴다 
     . 새로운  flavour 의 GTP 다 
     . GTP v2 control plane 29.274  (UMTS 에서는 control plane 을 v1 으로 쓴다. 29.060 )
     . GTP v1 user plane  29.281 


IMS and LTE

- EPC에 연결된 IMS 는 서비스 네트웍이다. 
- EPC 는 internet 과도 직접 물린다 
- CSCF (call session control function) 는 setup processing 을 한다 
     . circuit switched voice call 을 하는 MSC와 비슷한 역할


- AS는 advanced network을 제공
     . mead processing , digit collection, gaming / DRM server 등 operator가 제공하고 싶은 서비스 가능
- PCRF 는 가입자가 어떤 -  (VoIP 호에 대해 LTE bearer, data session setup 등) 를 허용할지 알려준다 
- 이것들이 다 IP 망에 묶인다 


출처 
http://www.youtube.com/embed/bJV5lTs7rjE?rel=0


'모바일 / 서비스' 카테고리의 다른 글

단말기 SIM, Ki인증  (0) 2014.10.02
IMEI, IMSI, MSISDN 단말식별자  (0) 2014.10.02
VoLTE overview #2  (0) 2014.06.10
VoLTE 알카텔 루슨트 #1  (0) 2014.06.10
VoLTE call flow의 이해  (0) 2014.06.10
Posted by FindZone :