Nothing Special   »   [go: up one dir, main page]

SE515407C2 - Slot reuse method for increasing throughput in DTM network - Google Patents

Slot reuse method for increasing throughput in DTM network

Info

Publication number
SE515407C2
SE515407C2 SE9504679A SE9504679A SE515407C2 SE 515407 C2 SE515407 C2 SE 515407C2 SE 9504679 A SE9504679 A SE 9504679A SE 9504679 A SE9504679 A SE 9504679A SE 515407 C2 SE515407 C2 SE 515407C2
Authority
SE
Sweden
Prior art keywords
token
tokens
node
nodes
network
Prior art date
Application number
SE9504679A
Other languages
Swedish (sv)
Other versions
SE9504679D0 (en
SE9504679L (en
Inventor
Lars Ramfelt
Original Assignee
Dynarc Ab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dynarc Ab filed Critical Dynarc Ab
Priority to SE9504679A priority Critical patent/SE515407C2/en
Publication of SE9504679D0 publication Critical patent/SE9504679D0/en
Priority to US08/757,347 priority patent/US5838687A/en
Priority to CA002237684A priority patent/CA2237684A1/en
Priority to JP09524273A priority patent/JP2000502854A/en
Priority to PCT/SE1996/001748 priority patent/WO1997024844A1/en
Priority to EP96944171A priority patent/EP0873627A1/en
Priority to AU14039/97A priority patent/AU1403997A/en
Publication of SE9504679L publication Critical patent/SE9504679L/en
Priority to US09/058,720 priority patent/US5946315A/en
Priority to US09/062,524 priority patent/US6108338A/en
Priority to US09/067,350 priority patent/US5982747A/en
Publication of SE515407C2 publication Critical patent/SE515407C2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2852Metropolitan area networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/42Loop networks
    • H04L12/422Synchronisation for ring networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q11/00Selecting arrangements for multiplex systems
    • H04Q11/04Selecting arrangements for multiplex systems for time-division multiplexing
    • H04Q11/0428Integrated services digital network, i.e. systems for transmission of different types of digitised signals, e.g. speech, data, telecentral, television signals
    • H04Q11/0478Provisions for broadband connections
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J2203/00Aspects of optical multiplex systems other than those covered by H04J14/05 and H04J14/07
    • H04J2203/0001Provisions for broadband connections in integrated services digital network using frames of the Optical Transport Network [OTN] or using synchronous transfer mode [STM], e.g. SONET, SDH
    • H04J2203/0028Local loop
    • H04J2203/0039Topology
    • H04J2203/0044Bus, e.g. DQDB
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J2203/00Aspects of optical multiplex systems other than those covered by H04J14/05 and H04J14/07
    • H04J2203/0001Provisions for broadband connections in integrated services digital network using frames of the Optical Transport Network [OTN] or using synchronous transfer mode [STM], e.g. SONET, SDH
    • H04J2203/0046User Network Interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/02Details
    • H04J3/06Synchronising arrangements
    • H04J3/07Synchronising arrangements using pulse stuffing for systems with different or fluctuating information rates or bit rates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • H04L2012/6432Topology
    • H04L2012/6435Bus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • H04L2012/6445Admission control
    • H04L2012/6448Medium Access Control [MAC]
    • H04L2012/6451Deterministic, e.g. Token, DQDB
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • H04L2012/6445Admission control
    • H04L2012/6456Channel and bandwidth allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • H04L2012/6445Admission control
    • H04L2012/6459Multiplexing, e.g. TDMA, CDMA

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Small-Scale Networks (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Time-Division Multiplex Systems (AREA)

Abstract

The method involves extending the DTM block token format to include the parameters describing the segments between the source and destination node. The block token capacity is only reserved on the segments between the source and destination node. Two or more segment consecutive tokens representing the same slot range are merged into a single token, when existing in the free pool of a node. Simultaneous transmissions in the same slot are enabled over disjointed segments of the network. This is implemented in a central token management scheme or a distributed token management scheme.

Description

W 20 25 30 35 ø u - | u: n. .-. . . v. .n . , ._ ~ ~» .u- 1 . , .... 4 v. .. - -, » v. 1 | 1-4 n a . . . W 20 25 30 35 ø u - | u: n. .-. . . v. .n. , ._ ~ ~ ».u- 1. , .... 4 v. .. - -, »v. 1 | 1-4 n a. . .

A ß ~ v u n .. n. ibland globala, typ av tjänst. nätverk och en ny terminal för varje ny Istället behövs ett nytt integrerat tjänstenätverk som understödjer redan existerande tjänster samt även nya tjänster. De övergripande målsättningarna för ett sådant nätverk är att det skall vara skalbart upp till global storlek och utnyttjandet av kostbara komponen- ter blir maximalt. Optisk transmissionsteknologi har visat sig ge nödvändig länkkapacitet till en tillräckligt låg kostnad för att göra integrerade tjänstenätverk till en realistisk lösning.A ß ~ v u n .. n. Sometimes global, type of service. network and a new terminal for each new Instead, a new integrated service network is needed that supports existing services as well as new services. The overall objectives for such a network are that it should be scalable up to global size and the utilization of expensive components will be maximum. Optical transmission technology has been shown to provide the necessary link capacity at a sufficiently low cost to make integrated service networks a realistic solution.

Ett nytt integrerat optiskt nätverk med mycket högre kapacitet kommer dock att medföra nya problem som inte finns i dagens mera specialiserade nätverk med lägre pres- tanda. Till att börja med, när nätverkskapaciteten ökar och propageringsfördröjningen kvarstår på grund av ljusets hastighet, kommer den ökande produkten av kapacitet och fördröjning att ställa högre krav på de mekanismer som isolerar en användares trafik från övriga parters trafik.However, a new integrated optical network with much higher capacity will lead to new problems that do not exist in today's more specialized networks with lower performance. To begin with, when network capacity increases and propagation delay persists due to the speed of light, the increasing product of capacity and delay will place higher demands on the mechanisms that isolate a user's traffic from other parties' traffic.

Ett telefonsamtal, t.ex., bör inte påverkas av att en annan användare öppnar en videokanal med hög kapacitet.A phone call, for example, should not be affected by another user opening a high capacity video channel.

Vidare kommer tillämpningar och protokoll att vara tvungna att fungera på ett pålitligt sätt med en ökande mängd information i rörelse för att dra fördel av den ökande nätverkskapaciteten. Detta resulterar i större skurar av information och större transaktioner i nätet.Furthermore, applications and protocols will have to work reliably with an increasing amount of information in motion to take advantage of the increasing network capacity. This results in larger bursts of information and larger transactions in the network.

Dagens nätverk som använder sig av förbindelselösa paketförmedlande protokoll, t.ex. IP (Internet Protocol) De har utvecklats som kopplar endast ett litet antal DARPA har visat sig vara väldigt skalbara. från små nätverk, (Defense Advanced Research Projects Agency) forsknings- datorer i mitten av 70-talet till dagens universellt utspridda globala Internet. Lokala nätverk baserade på CSMA/CD Access/ Collision Detection), delat medium som t.ex. (Carrier Sense Multiple token ring och FDDI (Fiber Distributed Data Interface) används inom Internet som enkla byggstenar, kopplade med routers eller bryggor.Today's networks that use unconnected packet-switched protocols, e.g. IP (Internet Protocol) They have been developed that connect only a small number of DARPA have proven to be very scalable. from small networks, (Defense Advanced Research Projects Agency) research computers in the mid-70s to today's universally distributed global Internet. Local area networks based on CSMA / CD Access / Collision Detection), shared media such as Carrier Sense Multiple token ring and FDDI (Fiber Distributed Data Interface) are used in the Internet as simple building blocks, connected with routers or bridges.

Kombinationen av enkel expansion, lågt växande kostnader n» u. 10 15 20 25 30 35 515 407 w+ñ:*ß;aß:~= beträffande noder samt tolerans av felaktiga noder, har resulterat i enkla, flexibla och robusta nätverk. Dessutom tillåter delat medium effektiv tillämpning av nya proto- koll för multicast som t.ex. IP multicast.The combination of simple expansion, low-growing costs n »u. 10 15 20 25 30 35 515 407 w + ñ: * ß; aß: ~ = regarding nodes and tolerance of incorrect nodes, has resulted in simple, flexible and robust networks. In addition, shared media allows efficient application of new protocols for multicast such as. IP multicast.

En nackdel med delat medium är, att det typiskt tillåter endast en terminal att sända en viss tid, och att alla nätverks-segment därmed inte används effektivt. Ett schema som tillåter mediets kapacitet att återanvändas kanske kommer att realiseras, men detta sker ofta på be- kostnad av komplexitet i hårdvara. Kontrollmekanismerna för accessen till det delade mediet är också kraftigt beroende av storleken på nätverket och är oftast effektiva endast inom lokala nätverk (korta distanser).A disadvantage of shared medium is that it typically allows only one terminal to transmit a certain time, and that not all network segments are used efficiently. A scheme that allows the medium's capacity to be reused may be realized, but this is often at the expense of hardware complexity. The control mechanisms for access to the shared medium are also heavily dependent on the size of the network and are usually effective only within local area networks (short distances).

De två viktigaste nätverkstyperna är förbindelse- orienterade kretskopplade nätverk som används inom tele- foni, och förbindelsefria paketväxlade nätverk, exemplifi- erade genom Internet. När ett kretskopplat nätverk används för datakommunikation, behöver förbindelserna kontinuer- ligt vara etablerade mellan skurar av information, vilket ger dåligt utnyttjande av kapaciteten i nätet. Detta problem uppstår då upp- och nedkoppling tar lång tid jämfört med de dynamiska variationerna i användarbehov. En annan källa till ineffektivitet inom kretskopplade nätverk är användandet av symmetriska dubbelriktade kanaler, vilka introducerar 50% "overhead" när informationsflödet är enkelriktat. Den här begränsningen gör också koppel med flera mottagare (multicast) svåra att implementera och de blir ineffektiva. Ett förbindelsefritt paketväxlat nät- verk, å andra sidan, saknar resursreservering och måste därmed tillföra kontrollinformation till varje meddelande innan transmission kan börja. Dessutom kan inte fördröj- ningen i ett förbindelsefritt paketväxlat nätverk med exakthet förutsägas och paket kan till och med förloras p.g.a. överflöde i buffertar eller felaktiga pakethuvuden.The two most important network types are connection-oriented circuit-switched networks used in telephony, and connection-free packet-switched networks, exemplified by the Internet. When a circuit-switched network is used for data communication, the connections need to be continuously established between bursts of information, which results in poor utilization of the capacity in the network. This problem arises when disconnection and disconnection takes a long time compared to the dynamic variations in user needs. Another source of inefficiency in circuit-switched networks is the use of symmetrical bidirectional channels, which introduce 50% "overhead" when the information flow is unidirectional. This limitation also makes multicast connectors difficult to implement and inefficient. A connection-free packet-switched network, on the other hand, lacks resource reservation and must therefore add control information to each message before transmission can begin. In addition, the delay in a connection-free packet-switched network can not be accurately predicted and packets can even be lost due to overflow in buffers or incorrect package heads.

De sista två faktorerna gör det svårt att stödja realtids- tjänster. Mekanismer som gör det möjligt att undvika över- belastning kan isolera olika användares trafikströmmar. 15 20 25 30 35 ' . . | .n 515 407 .I n.The last two factors make it difficult to support real-time services. Mechanisms that make it possible to avoid congestion can isolate different users' traffic flows. 15 20 25 30 35 '. . | .n 515 407 .I n.

Dessa mekansimer är dock begränsade och fungerar bara på en tidsskala jämförbara med en paketfördröjningen tur och retur mellan sändare och mottagare.However, these mechanisms are limited and only work on a time scale comparable to a packet delay round trip between transmitter and receiver.

För att adressera ovan nämnda problem, fokuserar kommunikationsindustrin på utvecklingen av ATM ATM har blivit föreslagen för LAN s (Asynchron- ous Transfer Mode). och många framtida publika nätverk. CCITT (International Telegraph and Telephone Consultative Committee) har också antagit ATM som överföringsstandard för B-ISDN (Broadband Integrated Services Digital Network). ATM nätverk är förbindelseorienterade och etablerar virtuella kanaler, liknande koppel i kretskopplade nätverk, men använder sig av små paket med fast storlek, celler, för informations- överföring. ATM's paketväxlade karaktär innebär att nät- verket behöver många nya mekanismer, som t.ex. reservering av buffertar och betjäningsalgoritmer för att kunna fastställa realtidsgarantier för ett koppel, d.v.s en virtuell kanal.To address the above problems, the communications industry focuses on the development of ATM ATM has been proposed for LANs (Asynchronous Transfer Mode). and many future public networks. CCITT (International Telegraph and Telephone Consultative Committee) has also adopted ATM as the transmission standard for B-ISDN (Broadband Integrated Services Digital Network). ATM networks are connection-oriented and establish virtual channels, similar to leased lines in circuit-switched networks, but use small packets of fixed size, cells, for information transmission. The ATM's packet-switched nature means that the network needs many new mechanisms, such as reservation of buffers and operating algorithms to be able to determine real-time guarantees for a leash, i.e. a virtual channel.

En annan lösning för att kunna garantera real-tid koncentrerar sig på ett kretskopplat nätverk och måste sålunda adressera problemen med traditionell kretskopp- ling, såsom de har beskrivits ovan. Ett nytt kontroll- protokoll för delat medium tillämpas också, och sålunda måste även de allmänna problemen med delade media över- vägas. Denna design, benämnd DTM (Dynamic Synchronous Transfer Mode), (se ex. Christer Bohm, Per Lindgren, Lars Ramfelt och Peter Sjödin, The DTM Gigabit Network, Journal 3(2):lO9-126, 1994, Gauffin, Lars Håkansson, och Björn Pehrson, Multi-gigabit of High Speed Networks, och Lars networking based on DTM, Computer Networks and ISDN Systems, 24 (2) ll9-139, April 1992) kanaler som kommunikationsabstraktion. använder sig av Dessa kanaler skiljer sig från telefonkoppel på flera olika sätt. Till att börja med är uppkopplingsfördröjningen så kort att resurser kan anslås/avslås dynamiskt så fort användar- behovet ändrar karaktär. För det andra är kanalerna enkelriktade och minimerar således "overhead" vid kommuni- v | ~ | u f. u. 15 20 25 30 35 - o ; . u 515 407 @ | > v 1 v kationen är enkelinriktad. För det tredje erbjuder de multipla överföringskapaciteter för att stödja olika typer av behov hos användarna. Slutligen kan kanalerna ha obegränsat antal destinationer (multicast).Another solution to be able to guarantee real-time concentrates on a circuit-switched network and thus has to address the problems of traditional circuit-switching, as they have been described above. A new shared media control protocol is also being applied, and thus the general problems of shared media must also be considered. This design, called DTM (Dynamic Synchronous Transfer Mode), (see eg Christer Bohm, Per Lindgren, Lars Ramfelt and Peter Sjödin, The DTM Gigabit Network, Journal 3 (2): lO9-126, 1994, Gauffin, Lars Håkansson, and Björn Pehrson, Multi-gigabit of High Speed Networks, and Lars networking based on DTM, Computer Networks and ISDN Systems, 24 (2) ll9-139, April 1992) channels as communication abstraction. makes use of These channels differ from telephone liaison in several different ways. To begin with, the connection delay is so short that resources can be switched on / off dynamically as soon as the user need changes character. Secondly, the channels are unidirectional and thus minimize "overhead" in municipal | | ~ | u f. u. 15 20 25 30 35 - o; . u 515 407 @ | > v 1 v The cation is unidirectional. Third, they offer multiple transmission capacities to support different types of needs of the users. Finally, the channels can have an unlimited number of destinations (multicast).

DTM kanaler delar många goda egenskaper med kretsar.DTM channels share many good features with circuits.

Det sker ingen kommunikation av kontrollinformation efter det att kanal har etablerats, vilket resulterar i väldigt högt användande av nätverk-resurser för stora dataöverfö- Stödet av real-tidstrafik är naturlig; ringar. ingen över- vakning av användarnas beteende, stockningskontroll eller flödeskontroll krävs inom nätverket. Kontrollinformationen är skild fràn användarinformation, vilket gör kommunika- Källför- (d.v.s mindre än 125 us) tion till flera destinationer mindre komplext. dröjningen är försumbar och risken för att data skall försvinna p g a att stockning saknas, p g a överfyllda köer såsom inom ATM. Sannolik- heten för bitfel beror direkt av den underliggande länk- teknologin, och kanaluppkopplingarna är enkla och snabba p g a strikt resursreservation vid kanalens etablering.There is no communication of control information after the channel has been established, which results in very high use of network resources for large data transmissions. The support of real-time traffic is natural; rings. no monitoring of users' behavior, congestion control or flow control is required within the network. The control information is different from user information, which makes communication (i.e. less than 125 us) tion to several destinations less complex. the delay is negligible and the risk of data disappearing due to lack of congestion, due to overcrowded queues such as within ATMs. The probability of bit errors depends directly on the underlying link technology, and the channel connections are simple and fast due to strict resource reservation when establishing the channel.

DTM kan även uppvisa god prestanda inom områden där traditionella kretskopplade nätverk uppvisar brister: och som dynamisk bandbreddstilldelning, källfördröjning, nät med delat medium.DTM can also perform well in areas where traditional circuit-switched networks have shortcomings: and as dynamic bandwidth allocation, source delay, networks with shared medium.

SAMMANFATTNING AV UPPFINNINGEN Ett av problemen med att använda DTM är att en tidlucka för data normalt inte kan användas av två noder samtidigt inom nätverket.SUMMARY OF THE INVENTION One of the problems with using DTM is that a time slot for data cannot normally be used by two nodes simultaneously within the network.

Syftet med uppfinningen är att lösa detta problem.The object of the invention is to solve this problem.

Detta åstadkommer man genom att tillämpa en metod för återanvändning av tidluckor (slot reuse) och ett arrange- mang som förbättrar användningen av delade länkar och som en följd av detta får man en ökad genomströmning (throug- put) i DTM nätverket.This is achieved by applying a method for reusing slot slots (slot reuse) and an arrangement that improves the use of shared links and as a result you get an increased throughput (througput) in the DTM network.

Metoden för återanvändning av tidluckor enligt upp- finningen omfattar en förlängning av DTM block-tokenforma- . . « | .u u» nu 20 25 30 35 . n - v | | . - ~ | m 515 407 n. .m tet som inberäknar parametrar, vilka beskriver segmenten mellan källan och destinationsnoden, och reserverar block- tokenkapaciteten enbart på segmenten mellan källan och destinationsnoden, vilket medger simultana transmissioner i samma lucka över åtskilda segment inom nätverket.The method for reusing time slots according to the invention comprises an extension of the DTM block token format. . «| .u u »nu 20 25 30 35. n - v | | . - ~ | m 515 407 n. .m tet which calculates parameters which describe the segments between the source and the destination node, and reserves the block token capacity only on the segments between the source and the destination node, which allows simultaneous transmissions in the same slot over separate segments within the network.

Luck-återanvändningen kan också inbegripa samman- slagning av två eller flera segmentkonsekutiva tokens vilka representerar samma grupp av tidluckor, till ett enda token, när det existerar i en nods fria pool.Hatch reuse may also involve merging two or more segment consecutive tokens which represent the same group of time slots, into a single token, when it exists in a node's free pool.

Metoden och arrangemanget för återanvändning av tidluckor enligt uppfinningen förhindrar de ovan nämnda problemen. Metoden tillåter kanaler att enbart reservera kapacitet på segmenten mellan källan och destinations- noden. En enda lucka kan då användas åtskilliga gånger simultant inom nätverket.The method and arrangement for reusing time slots according to the invention prevents the above-mentioned problems. The method allows channels to only reserve capacity on the segments between the source and the destination node. A single slot can then be used several times simultaneously within the network.

En väldigt viktig fördel med uppfinningen är att inga förändringar av hårdvaran, jämfört med den ursprung- liga prototyp-implementationen, behövs.A very important advantage of the invention is that no changes to the hardware, compared to the original prototype implementation, are needed.

En annan fördel med uppfinningen är att den kan tillämpas i både en central och i en distribuerad modell tokens. för administrering av Uppfinningen kan även tillämpas i en kombination av dessa båda modeller.Another advantage of the invention is that it can be applied in both a central and a distributed model of tokens. for administration of the invention can also be applied in a combination of these two models.

Ytterligare en fördel är att prestandavinsten är tydlig: på en dubbelbuss där källans och destinationens nodpar är uniformt fördelade, har det visat sig att genomströmningen kan fördubblas.Another advantage is that the performance gain is clear: on a double bus where the node pairs of the source and the destination are uniformly distributed, it has been shown that the throughput can be doubled.

En ytterligare fördel är att prestandavinsten kan bli ännu högre i andra sorters nätverk; t ex i en dubbel- ringsstruktur med källa och destinationsnoder som är uni- formt fördelade, kan genomströmningen ökas upp till fyra gånger. Om käll- och destinationsnoder inte är uniformt fördelade kan vinsten bli mycket högre.An additional advantage is that the performance gain can be even higher in other types of networks; For example, in a doubling structure with source and destination nodes that are uniformly distributed, the throughput can be increased up to four times. If source and destination nodes are not uniformly distributed, the gain can be much higher.

En annan fördel är att prestandan förbättras när den kombineras med en defragmenteringsmetod, som återlämnar tokens till deras hemnoder, som ett sätt att öka sannolik- Ü 20 25 30 - ~ » « » . | a v . v. 515 407 heten att två konsekutiva tokens kan sammanslàs i nodernas fria pool vilket minskar fragmenteringen.Another advantage is that performance is improved when combined with a defragmentation method, which returns tokens to their home nodes, as a way to increase the probability of Ü 20 25 30 - ~ »« ». | a v. v. 515 407 that two consecutive tokens can be merged in the free pool of the nodes, which reduces fragmentation.

KORTFATTAD BESKRIVNING AV TECKNINGARNA Uppfinningen kommer att beskrivas mer detaljerat nedan, med avseende på den bifogade teckningen, i vilken fig. 1 illustrerar ett dubbelbuss-DTM-nätverk. fig. 2 illustrerar ett DTM 125 ms cykel med en bestämd hemnod för varje datatidlucka enligt uppfinningen. fig. 3 illustrerar en tokenkarta som visar antal luckor samt segment, fig. 4 illustrerar en tidlucka-segment karta, vilken visar återanvändningen av luckor enligt uppfinningen. fig. 5 illustrerar prestandan (genomströmning och åtkomst- fördröjing, för små användar- (16 kbyte) ter som simulerats, kontra den erbjudna lasten) krav och för olika minimal-acceptans-kapacite- då man använt sig av en distribuerad (token server) enligt uppfinningen, fig. 6 visar prestandan för små användarkrav (16 kbyte) och för olika antal tillåtna försök innan förfrågan blockeras, som simulerats med hjälp av en distribuerad token server enligt uppfinningen, fig. 7 illustrerar åtkomstfördröjningen som en funktion av simulerad tid, med hjälp av A) defragmenteringsschemat samt ingen fragmentering vid simuleringens start, B) defragmenteringsschemat enligt uppfinningen samt maximal fragmentering vid simuleringens start, samt C) inget fragmenteringsschema och maximal fragmentering vid simule- ringens start. fig. dubbelbuss kontra erbjuden last för ett dubbelbuss-DTM- 8 illustrerar teoretisk genomströmning för en DTM- nätverk med och utan återanvändning av tidluckor, fig. 9 illustrerar prestanda för de olika paketstorlekarna som simulerats genom användning av en central token . | « : u. m u- W U 20 25 30 35- 515 407 . . 4 | f c » - = 1 un . . . « e > manager inom ett 10 km långt dubbelbuss-DTM-nätverk utan luck-återanvändning. fig. 10 illustrerar prestanda för olika paketstorlekar som simulerats genom användning av en central token manager inom ett lO km långt dubbelbuss-DTM-nätverk med åter- användning av tidluckor enligt uppfinningen, fig. ll illustrerar prestanda för olika paketstorlekar som simulerats med hjälp av en central token manager inom ett l OOO km långt DTM-nätverk med återanvändning av tidluckor enligt uppfinningen, fig. 12 illustrerar prestanda för olika paketstorlekar som simulerats genom användning av en distribuerad token manager i ett dubbelbuss-nätverk med defragmentering och återanvändning av tidluckor enligt uppfinningen, fig. 13 illustrerar prestanda för olika busslängder som simulerats med hjälp av en distribuerad token manager med defragmentering och återanvändning av tidluckor enligt uppfinningen, och fig. 14 illustrerar prestanda för olika trafikförhållanden som simulerats med hjälp av en distribuerad token manager i ett dubbelbuss-nätverk med defragmentering samt åter- användning av tidluckor enligt uppfinningen.BRIEF DESCRIPTION OF THE DRAWINGS The invention will be described in more detail below, with reference to the accompanying drawing, in which Fig. 1 illustrates a dual bus DTM network. Fig. 2 illustrates a DTM 125 ms cycle with a determined home node for each data time slot according to the invention. Fig. 3 illustrates a token map showing the number of slots and segments, Fig. 4 illustrates a time slot segment map, which shows the reuse of slots according to the invention. Fig. 5 illustrates the performance (throughput and access delay, for small user (16 kbytes) simulated, versus the offered load) requirements and for different minimum acceptance capacities when using a distributed (token server) according to the invention, Fig. 6 shows the performance for small user requirements (16 kbytes) and for different number of permitted attempts before the request is blocked, which is simulated by means of a distributed token server according to the invention, Fig. 7 illustrates the access delay as a function of simulated time, with by means of A) the defragmentation scheme and no fragmentation at the start of the simulation, B) the defragmentation scheme according to the invention and maximum fragmentation at the start of the simulation, and C) no fragmentation scheme and maximum fragmentation at the start of the simulation. Fig. double bus versus offered load for a double bus DTM-8 illustrates theoretical throughput for a DTM network with and without reuse of time slots, Fig. 9 illustrates performance for the different packet sizes simulated using a central token. | «: U. M u- W U 20 25 30 35- 515 407. . 4 | f c »- = 1 un. . . «E> manager within a 10 km long double-bus DTM network without slot reuse. Fig. 10 illustrates performance for different packet sizes simulated using a central token manager within a 10 km long dual bus DTM network using time slots according to the invention, Fig. 11 illustrates performance for different packet sizes simulated using a central token manager within a 100 km long DTM network with reuse of time slots according to the invention, Fig. 12 illustrates performance for different packet sizes simulated by using a distributed token manager in a double bus network with defragmentation and reuse of time slots according to the invention, Fig. 13 illustrates the performance of different bus lengths simulated by a distributed token manager with defragmentation and reuse of time slots according to the invention, and Fig. 14 illustrates the performance of different traffic conditions simulated by a distributed token manager in a dual bus network with defragmentation and reuse of time slots according to the invention.

DETALJERAD BESKRIVNING AV UTFORMANDET Till att börja med skall DTM MAC Control) (Medium Access protokoll beskrivas. Den grundläggande topologin i ett DTM-nätverk är en buss med två enkelriktade optiska fibrer som sammankopplar alla noder, såsom illustrerats i fig. 1. kopplas samman för att tillsammans forma ett godtyckligt Åtskilliga bussar med olika hastigheter kan flerstegsnätverk. I dagens prototyp-implementation, kan bussar kombineras till ett tvådimensionella nät. En nod vid föreningspunkten av två bussar kan synkront växla data i tidluckor mellan de två bussarna. Detta tillåter effek- tiv växling med konstant försening genom noden. Den primära kommunikationsabstraktionen i DTM är en kanaler I » . . -n u. n. 20 25 30 35 ç. n.. :v men 515 407 som kan vara av olika kapacitet och nå multipla mottagare (multicast).DETAILED DESCRIPTION OF THE DESIGN To begin with, DTM MAC Control (Medium Access Protocol) will be described. The basic topology of a DTM network is a bus with two unidirectional optical fibers that interconnect all nodes, as illustrated in Fig. 1. to form an arbitrary together Several buses with different speeds can multi-stage networks.In today's prototype implementation, buses can be combined into a two-dimensional network.A node at the junction of two buses can synchronously exchange data in time slots between the two buses.This allows efficient switching with constant delay through the node The primary communication abstraction in DTM is a channel I ».. -n un 20 25 30 35 ç. n ..: v but 515 407 which can be of different capacities and reach multiple receivers (multicast).

DTM MAC-protokollet är ett tidsmultiplexerat schema. (8 kHz), vilka i sin tur är uppdelade i 64-bit tidsluckor Bussens bandbredd är uppdelad i l25 ms cykler (eller bara luckor, i förkortning) vilket är illustrerat i fig. 2. Antalet luckor i en cykel är därmed beroende av nät- verkets bithastighet; t ex, på ett 6.4 Gbit/s nätverk finns det ungefär 12500 luckor per cykel.The DTM MAC protocol is a time-multiplexed schedule. (8 kHz), which in turn are divided into 64-bit time slots The bus bandwidth is divided into l25 ms cycles (or just slots, in short) which is illustrated in Fig. 2. The number of slots in a cycle is thus dependent on the network - the bit rate of the work; for example, on a 6.4 Gbit / s network, there are approximately 12,500 slots per cycle.

Luckorna är uppdelade i två olika grupper, kontroll- luckor samt dataluckor. Kontrolluckor används för att bära meddelanden åt nätverkets interna operation, t ex med- delanden för kanaletablerande samt omfördelning av band- bredd. Dataluckor används för att sända användardata och tolkas inte av mellanliggande nätverksnoder. Mellanliggan- de noder är noder mellan källan och destinationen.The slots are divided into two different groups, control slots and data slots. Control hatches are used to carry messages for the network's internal operation, such as messages for channel establishment and bandwidth redistribution. Data gaps are used to transmit user data and are not interpreted by intermediate network nodes. Intermediate nodes are nodes between the source and the destination.

I varje nätverksnod finns en nodkontrollant (NC eller node controller), vilken kontrollerar tillgången på dataluckor och utför management-operationer, som t ex vid nätverkets uppstartande samt felsökning. De viktigaste uppgifterna som nodkontrollanten har är att skapa och avsluta kanaler då detta krävs av användarna, och att sköta nätverksresurserna i enlighet med användarkrav och i bakgrunden.Each network node has a node controller (NC or node controller), which checks the availability of data gaps and performs management operations, such as when the network is started up and troubleshooting. The most important tasks that the node controller has are to create and terminate channels when this is required by the users, and to manage the network resources in accordance with user requirements and in the background.

Kontrolluckor används enbart för meddelanden mellan nodkontrollanter. Varje nodkontrollant har tillåtelse att skriva till minst en kontrollucka i varje cykel som den använder för att sända kontrollmeddelanden nedströms till andra noder. Eftersom tillåtelse att skriva till kontroll- luckor är exklusivt, har nodkontrollanten alltid tillgång till sina kontrolluckor, oavsett andra noder samt nät- verksbelastning. Antalet kontrolluckor som en nod använder kan variera under driften av nätverket.Control gaps are only used for messages between node controllers. Each node controller is allowed to write to at least one control slot in each cycle that it uses to send control messages downstream to other nodes. Since permission to write to control slots is exclusive, the node controller always has access to its control slots, regardless of other nodes and network load. The number of control slots used by a node may vary during network operation.

Nätverket är inte begränsat till en dubbelbuss, utan kan tillämpas med andra sorters strukturer, t ex en ring- struktur med ett godtyckligt antal noder. Transmissions- | - L 1 = p m n.The network is not limited to a double bus, but can be applied with other types of structures, such as a ring structure with an arbitrary number of nodes. Transmissions- | - L 1 = p m n.

W 20 25 30 35 | | « - .u 515 407 u - | . .- u n. mediet kan, förutom optiska fibrer, vara koaxialkabel eller någon annan sorts transmissionsmedium med hög band- bredd. Hädanefter kommer transmissionsmediet att benämnas optiska fibrer. Bandbredden i DTM-dubbelbuss inom det föredragna utformandet är uppdelad i 125 ms cykler, vilka i sin tur är uppdelade i 64-bit tidsluckor. Uppfinningen är inte begränsad till DTM-nätverk med detta värde, utan kan användas inom nätverk med cykler och tidluckor av godtycklig storlek.W 20 25 30 35 | | «- .u 515 407 u - | . .- u n. the medium may, in addition to optical fibers, be coaxial cable or any other type of high bandwidth transmission medium. Hereinafter, the transmission medium will be called optical fibers. The bandwidth of the DTM double bus in the preferred design is divided into 125 ms cycles, which in turn are divided into 64-bit time slots. The invention is not limited to DTM networks with this value, but can be used in networks with cycles and time slots of any size.

Principerna för resurshantering (benämnt token management) kommer att beskrivas nedan. Majoriteten av luckorna inom en cykel är datatidluckor. Tillgång till dataluckor ändras inom en tidsrymd, beroende på trafik- krav. Tillàtelse att skriva till luckor kontrolleras av luck-tokens (eller enbart tokens, som förkortning). En nodkontrollant kan skriva in data i en lucka bara om den äger motsvarande token. Token-protokollet garanterar att tillgången till luckor skall vara fri från konflikter, vilket innebär att åtskilliga noder inte skriver in data i samma lucka.The principles of resource management (called token management) will be described below. The majority of the gaps within a cycle are data time slots. Access to data slots changes within a period of time, depending on traffic requirements. Permission to write to slots is controlled by slot tokens (or tokens only, for short). A node controller can enter data in a slot only if it owns the corresponding token. The token protocol guarantees that access to slots is free of conflicts, which means that several nodes do not enter data in the same slot.

Kontrollmeddelanden för kanaletablerande och band- breddsallokation bär uppsättningar av luckor eller tokens Ett kontrollmeddelande är dock 64 bitar Detta som parametrar. och kan därför bara ha ett litet antal parametrar. innebär, att om en användare begär en stor bandbreddsöver- föring, kan det bli nödvändigt att sända åtskilliga kontrollmeddelanden för att skapa kanalen. Detta innebär extra åtkomstfördröjning och slukar signaleringskapacitet.Control messages for channel establishment and bandwidth allocation carry sets of slots or tokens A control message is, however, 64 bits This as parameters. and can therefore only have a small number of parameters. This means that if a user requests a large bandwidth transfer, it may be necessary to send several control messages to create the channel. This means extra access delay and devours signaling capacity.

Vi överväger ett flertal mekanismer för att minska mängden information som behöver sändas under kanalens skapande och vid omfördelning av tokens. Det första optimala sättet inom token management är att introducera block tokens. Ett block token översänds i ett enda kontrollmeddelande och representerar en grupp tokens, men kan bara användas i särskilda kombinationer av tokens.We are considering a number of mechanisms to reduce the amount of information that needs to be transmitted during the creation of the channel and when redistributing tokens. The first optimal way in token management is to introduce block tokens. A block token is sent in a single control message and represents a group of tokens, but can only be used in special combinations of tokens.

T ex, i simulatorn betecknas ett block token av ett lucknummer som anger luckans position i cykeln och ett « ~ v . -n ~ I « . -u n. u. 20 25 30 35 . . - . w: 515 407 . | - | v- nummer som delger antalet angränsande luckor i gruppen.For example, in the simulator, a block token is denoted by a slot number indicating the position of the slot in the cycle and a «~ v. -n ~ I «. -u n. u. 20 25 30 35. . -. w: 515 407. | - | v-number that divides the number of adjacent gaps in the group.

Detta optimala block token exempel förutsätter att token poolen inte är fragmenterad i små delar. Detta kommer att benämnas token poolens fragmentering.This optimal block token example assumes that the token pool is not fragmented into small parts. This will be called the token pool fragmentation.

Token-protokollet garanterar att en datalucka aldrig kan användas av två noder simultant på bussen. Ibland är detta protokoll för konservativt.The token protocol guarantees that a data slot can never be used by two nodes simultaneously on the bus. Sometimes this protocol is too conservative.

(A, B och C) kanaler. Noderna är hopkopplade av buss-segment och Fig. 3 visar ett exempel på hur tre tokens är reserverade för tre kanalerna använder sig typiskt av en underuppsättning segment på bussen (grå färg) och resten är reserverade men finns kvar oanvända och slösar således med Ett bättre alternativ är att låta kana- (vit färg) delade resurser. lerna enbart reservera kapacitet på segmenten mellan sändaren och mottagaren som exemplet i fig. 4. En enda lucka kan i detta exempel användas åtskilliga gånger på bussen. Kanal D och E använder samma luckor som kanal A och C, men på olika segment. Detta benämns luck-återan- vändning (slot reuse). Luck-återanvändning möjliggör simultana transmissioner i samma lucka över åtskilda segment på bussen.(A, B and C) channels. The nodes are connected by bus segments and Fig. 3 shows an example of how three tokens are reserved for the three channels typically use a subset of segments on the bus (gray color) and the rest are reserved but remain unused and thus waste a better alternative is to allow kana- (white color) shared resources. only reserve capacity on the segments between the transmitter and the receiver as the example in Fig. 4. In this example, a single slot can be used several times on the bus. Channels D and E use the same gaps as channels A and C, but on different segments. This is called slot reuse. Hatch reuse enables simultaneous transmissions in the same slot over separate segments on the bus.

Luck-återanvändning är en generell metod för att bättre kunna använda delade länkar i ring och buss- nätverk. Luck-återanvändningsalgoritmerna i DQDB Simple och CRMA (Distributed Queue Dual Bus), (Cyclic Reservation Multiple Access) är beroende av kontroll- information i luckorna. Bufferinsättningsnätverk, när de är kombinerade med frigörande av destinationer (destin- som i METARING, i individuella länkar och upplösa eventuell konflikt genom ation release) kan återanvända kapaciteten att försena den inkommande paketströmmen genom en elastisk buffer.Luck reuse is a general method for better use of shared links in ring and bus networks. The hatch reuse algorithms in DQDB Simple and CRMA (Distributed Queue Dual Bus), (Cyclic Reservation Multiple Access) depend on control information in the hatches. Buffer deployment networks, when combined with destination release (as in METARING, in individual links and resolving any conflict by ation release) can reuse the capacity to delay the incoming packet stream through an elastic buffer.

Med luck-återanvändning ökar komplexiteten inom åtkomstschemat, oavsett om det blir gjort i hårdvara som i DQDB, Simple och CRMA; det implementeras i andra system än i DTM, tillför också eller i mjukvara, som i DTM. När luck-återanvändningen komplex hårdvara till den kritiska a - e . nu ll I I 11.: 5 '..'...' v» I.. 10 15 20 25 30 35 | | | . .- 515 407 | - . . .. höghastighetsvägen genom en nod, och därför ökas nod- förseningen.With luck reuse, the complexity of the access scheme increases, regardless of whether it is done in hardware such as in DQDB, Simple and CRMA; it is implemented in systems other than in DTM, also adds or in software, as in DTM. When the luck-reuse complex hardware to the critical a - e. nu ll I I 11 .: 5 '..'...' v »I .. 10 15 20 25 30 35 | | | . .- 515 407 | -. . .. the high-speed path through a node, and therefore the node delay is increased.

För att kunna tillåta luck-återanvändning i DTM, förlängs block token formatet enligt uppfinningen så att det inbegriper parametrar som beskriver segmenten som det representerar. Token management protokollet är också enligt uppfinningen modifierat för att kunna undvika konflikter i lucknummer-dimensionen såväl som i segment- dimensionen. Det viktigaste antagandet är att inga hård- varuförändringar i den ursprungliga prototypimplemente- ringen tilläts eller krävdes. Prestandavinsten är alltså väldigt tydlig: på en dubbelbuss där källa- och destina- tionspar är uniformt fördelade har det visat sig att genomströmningen kan ökas med det dubbla. Prestandavinsten kan till och med bli högre i andra nätverkssorter: t ex i en dubbelringsstruktur med käll- samt destinationsnoder som är uniformt fördelade, kan genomströmningen ökas med det fyrdubbla. uniformt fördelade, Om käll- och destinationsnoder inte är kan vinsten bli ännu mycket högre.In order to allow slot reuse in DTM, the block token format of the invention is extended to include parameters that describe the segments it represents. The token management protocol is also modified according to the invention in order to avoid conflicts in the slot number dimension as well as in the segment dimension. The most important assumption is that no hardware changes in the original prototype implementation were allowed or required. The performance gain is thus very clear: on a double bus where the source and destination pairs are uniformly distributed, it has been shown that the throughput can be increased by twice. The performance gain can even be higher in other network types: for example in a double ring structure with source and destination nodes that are uniformly distributed, the throughput can be increased by four times. uniformly distributed, If source and destination nodes are not, the gain can be even higher.

Det potentiella problemet av luck-återanvändning i ett DTM-nätverk är, emellertid, den högre algoritm- komplexiteten och slutligen högre börda för nodkontrollan- ten och signaleringskanalerna kort). (särskilt om den genomsnitt- liga kanalvaraktigheten är Två token management scheman har utvärderats. Den första och enklaste är att låta en enda nodkontrollant styra alla fria tokens för en fiber. Denna typ av centra- liserade (server) mekanism har också använts i system som t ex CRMA, där huvudändsnoden distribuerar fiberkapacite- ten till alla andra noder. Simulatorn var inrättad på så sätt att för varje fiber fanns en nod som förhöll sig på en tredjedel av distansen från luck-generatorn, och denna var token server (med 100 noder på en buss-nod blir nummer 33 och nummer 67 "token servers"). Detta motsvarar mitt- punkten på kravet för var och en av de två enhetsinriktade fibrerna på så sätt att en token manager kommer att ha samma mängd trafik på båda sidor.The potential problem of slot reuse in a DTM network is, however, the higher algorithm complexity and ultimately the higher burden on the node controller and signaling channels in short). (especially if the average channel duration is Two token management schemes have been evaluated. The first and simplest is to let a single node controller control all free tokens for a fiber. This type of centralized (server) mechanism has also been used in systems such as for example, CRMA, where the main end node distributes the fiber capacity to all other nodes.The simulator was set up in such a way that for each fiber there was a node that was one third of the distance from the gap generator, and this was the token server (with 100 nodes on a bus node, number 33 and number 67 become "token servers"), which corresponds to the midpoint of the requirement for each of the two device-oriented fibers in such a way that a token manager will have the same amount of traffic on both sides.

Q - v « uu 12 = nu' ::=z '=..=...= . . - . en n i.. 20 25 30 35 515 497 13 Varje gång en användarförfrâgan anländer vid en nod, kräver noden först och främst tokens från sin manager och låser dem sedan under hela kanal-livstiden. När användaren sänder meddelandet att kanalen skall kopplas ifrån, åter- sänds tokens omedelbart till sin manager. Alla förfråg- ningar blir fördröjda under begäran av token och själva åtkomsten serialiseras genom en central manager.Q - v «uu 12 = nu ':: = z' = .. = ... =. . -. a n i .. 20 25 30 35 515 497 13 Each time a user request arrives at a node, the node first requires tokens from its manager and then locks them for the entire channel lifetime. When the user sends the message that the channel should be disconnected, tokens are sent back to their manager immediately. All requests are delayed during the token request and the access itself is serialized by a central manager.

Den distribuerade "token manager" är fundamentalt mer komplicerad än den centraliserade. Vi försökte att hålla den så enkel som möjligt. I vår metod sänder varje nöd regelbundet statusinformation beträffande hur många lediga tokens den har. De andra noderna lagrar den här informationen i sina statustabeller. En nöd som vill ha ökad kapacitet konsulterar sin statustabell för att utifrån den bestämma från vilken nod den skall begära luckor. Protokollet på den initierande sidan fungerar på följande sätt. När en användarförfràgan anländer till en nöd: l. Om noden har tillräckligt många lediga tokens för att kunna tillfredsställa kravet, allokerar noden den fordrade mängden luckor till användaren, och startar upp kanalen genom att sända ett etableringsmeddelande till destinationsnoden, och användaren sänder sedan data genom att använda de reserverade luckorna. 2. Annars markerar noden sina tillgängliga tokens som reserverade, och kontrollerar sedan sin statustabell: om den totala mängden lediga tokens i nätverket inte är tillräcklig för att tillfredsställa kravet, avvisas kravet (blockering). I annat fall begär noden tokens från noder med outnyttjad kapacitet.The distributed "token manager" is fundamentally more complicated than the centralized one. We tried to keep it as simple as possible. In our method, each emergency regularly sends status information regarding how many free tokens it has. The other nodes store this information in their status tables. A distress that wants increased capacity consults its status table in order to decide on the basis of which node it is to request gaps. The protocol on the initiating page works as follows. When a user request arrives in an emergency: l. If the node has enough free tokens to satisfy the requirement, the node allocates the required amount of slots to the user, and starts up the channel by sending an establishment message to the destination node, and the user then sends data through to use the reserved gaps. Otherwise, the node marks its available tokens as reserved, and then checks its status table: if the total amount of free tokens in the network is not sufficient to satisfy the requirement, the requirement is rejected (blocking). Otherwise, the node requests tokens from nodes with unused capacity.

Om en av dessa noder som erhåller en tokenförfrågan inte har den fordrade mängden lediga luckor, lämnar den i vilket fall som helst ifrån sig alla sina tillgäng- liga luckor. I varje fall skickar den ett svar till den fordrande noden. En nod fullföljer inkommande krav i sträng FIFO (First In First Out) ordning.If one of these nodes receiving a token request does not have the required amount of free slots, it will in any case leave all its available slots. In each case, it sends a response to the requesting node. A node fulfills incoming requirements in strict FIFO (First In First Out) order.

. | I - .- n f.. 20 25 30 35 515 407 šfššfšïi äfzfïïfïïï' 14 I i I '.' ..' i När en nod får ett svar på ett token krav, markerar den luckorna som den erhåller i svaret (om den får några tokens) som reserverade. När noden har erhållit svar på alla förfrågningar som den har skickat, startar den antingen kanalerna eller avvisar användar kravet, beroende på om den har eller inte har fått tillräcklig markeras de kapacitet. Om användar kravet avvisas, reserverade luckorna som lediga igen.. | I - .- n f .. 20 25 30 35 515 407 šfššfšïi äfzfïïfïïï '14 I i I'. ' .. 'i When a node receives a response to a token request, it marks the gaps it receives in the response (if it receives any tokens) as reserved. Once the node has received a response to all requests it has sent, it either starts the channels or rejects the user request, depending on whether it has or has not received enough, the capacities are marked. If the user requirement is rejected, the gaps are reserved as free again.

Vid starten distribueras samtliga lediga tokens bland nätverkets noder och varje nod tar åtminstone en av flyttar den (dem) till ett aktivt (dem) som kontrollucka(or).At startup, all free tokens are distributed among the network nodes and each node takes at least one of which moves it (them) to an active (them) as a control slot (s).

Användarförfrågningar kan nu accepteras och tokens kan sina lediga tokens, skick och annonserar den flyttas mellan noder på begäran.User requests can now be accepted and tokens can move their free tokens, condition and advertise it between nodes on request.

En svaghet med detta schema är att omallokering av tidluckor bara kan påbörjas med hjälp av användarförfråg- ningar, och användarförfrågningar fördröjs i avvaktan på omallokering av tokens. En optimering som vi har implemen- terat för att åtgärda detta är att också utöva realloke- ring av tidluckor i bakgrunden. Detta resulterar i ett mindre behov av att reallokera tokens för krav som är små och upp till mellanstorlek.A weakness with this schedule is that reallocation of time slots can only be started with the help of user requests, and user requests are delayed pending reallocation of tokens. An optimization that we have implemented to remedy this is to also exercise reallocation of time slots in the background. This results in a smaller need to reallocate tokens for requirements that are small and up to medium size.

Poolen som innehåller lediga tokens kan distribueras på andra sätt än jämna sådana för att öka sannolikheten för lyckad omfördelning och för att öka utnyttjandegraden.The pool that contains free tokens can be distributed in other ways than even ones to increase the probability of successful redistribution and to increase the utilization rate.

Om färre noder sköter poolen, minskar kanalblockeringen p g a att risken att token reallokering skall misslyckas är mindre. Den kompletta token-poolen är i detta fall proportionerligt distribuerad (noder som ligger nära luck- generatorn får fler tokens än noderna som befinner sig långt från den) bland alla noder. Token förflyttningar kan inträffa mellan vilket nodpar som helst istället för att alltid engagera (server) noden. När den lokala noden innehåller tillräckligt många tokens för att tillfreds- ställa en inkommande användarbegäran, kan kravet accepte- ras utan någon token-reallokering. Dessutom är det så, att 10 20 25 30 | | ~ . vu 515 407 så länge de anländande användarförfrågningarna passar bra till pool distributionen behövs inte någon reallokering. Åtskilliga frågor behöver besvaras innan något beslut kan tas om hur token-poolen skall distribueras.If fewer nodes manage the pool, the channel blockage is reduced due to the risk that the token reallocation will fail is less. The complete token pool is in this case proportionally distributed (nodes that are close to the slot generator receive more tokens than the nodes that are far from it) among all nodes. Token transfers can occur between any node pair instead of always engaging (server) the node. When the local node contains enough tokens to satisfy an incoming user request, the request can be accepted without any token reallocation. In addition, it is the case that 10 20 25 30 | | ~. vu 515 407 as long as the incoming user requests fit well with the pool distribution, no reallocation is required. Several questions need to be answered before any decision can be made on how the token pool should be distributed.

Följande skall vi ta ställning till här: 1. När de lokala resurserna i noden inte är tillräckliga för att tillfredsställa en användarförfrågan, vilken annan nod skall då tillfrågas om fler tokens? 2. Om en nod ber om tokens från ett flertal noder, hur många tokens skall den då be om och borde noden avvisa förfrågan om den erhåller en bråkdel av den efter- frågade kapaciteten? 3. Om tokens rör sig fritt bland noderna, kommer token- poolen att fragmenteras i små bitar och visa att block token optimeringsschemat är värdelöst? Det bestämdes att statusmeddelanden skulle användas för att distribuera information om poolen med lediga tokens.We will consider the following here: 1. When the local resources in the node are not sufficient to satisfy a user request, which other node should then be asked for more tokens? 2. If a node requests tokens from multiple nodes, how many tokens should it request and should the node reject the request if it receives a fraction of the requested capacity? 3. If the tokens move freely among the nodes, will the token pool be fragmented into small pieces and show that the block token optimization scheme is useless? It was decided that status messages would be used to distribute information about the pool with free tokens.

Statusmeddelandeinformation används för att hjälpa en nod att välja en lämplig nod när den ber om ytterligare resur- ser. Denna metod gäller den första ovan nämnda frågan.Status message information is used to help a node select an appropriate node when requesting additional resources. This method concerns the first question mentioned above.

Vårt schema fungerar enligt följande. Varje nod sänder regelbundet statusinformation om hur många lediga tokens den har. De andra noderna lagrar denna information i sina statustabeller. En nod som behöver mer kapacitet konsulte- rar sin statustabell för att bestämma från vilken nod den kan begära luckor. Den utsända förhållande-informationen ger en ungefärlig syn på det innevarande förhållandet av token-information, så att token-krav kan avvisas för att de skickades till noder som inte längre hade några tokens att lämna ifrån sig.Our schedule works as follows. Each node regularly sends status information about how many free tokens it has. The other nodes store this information in their status tables. A node that needs more capacity consults its status table to determine from which node it can request gaps. The transmitted relationship information provides an approximate view of the current relationship of token information, so that token claims can be rejected because they were sent to nodes that no longer had any tokens to leave.

Statustabeller är mjuk information på så satt att systemet fungerar även om de är föråldrade eller icke tillgängliga. De bör emellertid förbättra sannolikheten att reallokationsprocedurerna lyckas. . | « . =u -1 ø. .m , u. 1 :nu . . 1 se a 1 - n ~ - 15 1 1 n . I. u a. n. v | | I f. m n.. 10 20 25 30 35 u ~ | . .- 515 407 ~ - - « m Vid jämförelse av den centraliserade (fig. 9) och (fig. 12) kan man se att det finns en ny sorts avvisningar den distribuerade "token managers" grundpres- tanda som är frekventa i den distribuerade versionen när resurserna fortfarande är oanvända i systemet.Status tables are soft information in such a way that the system works even if they are outdated or not available. However, they should improve the likelihood of reallocation procedures succeeding. . | «. = u -1 ø. .m, u. 1: nu. . 1 se a 1 - n ~ - 15 1 1 n. I. u a. N. V | | I f. M n .. 10 20 25 30 35 u ~ | . .- 515 407 ~ - - «m When comparing the centralized (fig. 9) and (fig. 12) one can see that there is a new kind of rejection of the distributed" token manager "basic performance that is frequent in the distributed version when resources are still unused in the system.

En nod använder statustabellen för att välja nod(er) från vilka den kan begära tokens. När kravet når målnoden kan mängden tillgänglig kapacitet ha ändrats och en mindre mängd än den begärda kan bli återsänd till den begärande noden, vilket resulterar i ett användaravvisan- de.A node uses the status table to select node (s) from which it can request tokens. When the requirement reaches the target node, the amount of available capacity may have changed and a smaller amount than the requested one may be returned to the requesting node, resulting in a user rejection.

Denna situation resulterar i än mera onödigt token- omflyttande och därför ökar också troligheten att andra noder erhåller färre tokens än vad de begärt. Dessa tokens som förflyttas på detta vis är också låsta och oanvända under förflyttningen.This situation results in even more unnecessary token relocation and therefore also increases the probability that other nodes receive fewer tokens than they requested. These tokens that are moved in this way are also locked and unused during the transfer.

Om poolen är proportionerligt distribuerad bland ett (100-tals) storlek att bli ganska liten. När belastningen är hög, stort antal noder, kommer den normala poolens minskar antalet lediga tokens i poolerna ännu mer. Om noder också etablerar och frigör kanaler i ett högt tempo, kommer mängden av ledig kapacitet i de individuella noderna att hoppa mellan att behålla en väldigt liten mängd kapacitetet och ingen alls. Om nu medelkapaciteten som krävs av en användare är stor jämfört med antalet lediga tokens i en nod, kommer åtskilliga noder att behöva tillfrågas för att kunna tillfredsställa kravet. Vid detta tillfälle ökar troligheten att en av de tillfrågade noderna inte har någon ledig kapacitet, villket leder till användaravvisande.If the pool is proportionally distributed among a (100s) size to become quite small. When the load is high, large number of nodes, the normal pool will reduce the number of free tokens in the pools even more. If nodes also establish and release channels at a high rate, the amount of free capacity in the individual nodes will jump between maintaining a very small amount of capacity and none at all. If now the average capacity required by a user is large compared to the number of free tokens in a node, several nodes will need to be queried to be able to satisfy the requirement. At this time, the probability increases that one of the requested nodes has no free capacity, which leads to user rejection.

Det finns flera sätt att ta itu med detta problem utan att återgå till en centraliserad modell. Först och främst kanske vi inte behöver skänka några tokens alls när den kompletta begäran inte kan tillfredsställas.There are several ways to deal with this problem without returning to a centralized model. First of all, we may not need to donate any tokens at all when the complete request cannot be satisfied.

Detta protokoll används enbart om bara en enda nod tillfrågas om lediga tokens, men om ett flertal noder . | - . u. n u» nu I u» v nu» . . . .u f . u u ~ f 16 n u n . .- n u u. - - | - nu m u- 20 25 30 35 n :mn 515 407 u - | ~ v. tillfrågas kan det ändå resultera i att tökens blir förflyttade eller låses i ett outnyttjat tillstånd. För det andra, om tökens har blivit efterfrågade och vi får färre tökens än vad vi begärde, kan vi helt enkelt försöka med en ny token-begäranprocedur flera gånger. Detta ökar sannolikheten att en användarbegäran accepteras och att erhållna tökens kommer att användas. Kostnaden för ett nytt försök blir ökad signalering samt ökad åtkomst- fördröjning, och det kan försämra prestandan i ett över- belastat nätverk. Dessutom introducerar användarens återförsök längre "set-up" fördröjning för fordringar som skall försökas igen. För det tredje kan det ibland hända att användaren vill acceptera en kanal med lägre kapacitet än vad som ursprungligen krävts hellre än att avvisas.This protocol is used only if only a single node is asked for free tokens, but for multiple nodes. | -. u. n u »nu I u» v nu ». . . .u f. u u ~ f 16 n u n. .- n u u. - - | - nu m u- 20 25 30 35 n: mn 515 407 u - | If asked, it can still result in the cloth being moved or locked in an unused condition. Second, if tokens have been requested and we receive fewer tokens than we requested, we can simply try a new token request procedure several times. This increases the likelihood that a user request will be accepted and that the obtained tools will be used. The cost of a new attempt will be increased signaling and increased access delay, and this may impair the performance of an overloaded network. In addition, the user's retry introduces a longer "set-up" delay for claims to be retried. Third, the user may sometimes want to accept a channel with a lower capacity than what was originally required, rather than being rejected.

Om en användare t ex erhåller 50% av det begärda kanske han accepterar detta. I fig. 5 är genomströmningen, som är ration mellan transporterad användardata och det totala antalet bits som är översända av fibrerna, och tillgångsfördröjning, som är tiden mellan anländandet av en användarbegäran till sändningen av den första begärda (16 kbyte) minimi-acceptabla kapaciteter (l00% 40 luckor), 50% (20 datan, för små användarkrav med varierande luckor) samt 5% (1 lucka) planerade kontra erbjuden last.For example, if a user receives 50% of what is requested, he may accept this. In Fig. 5, the throughput, which is the ration between the transported user data and the total number of bits transmitted by the fibers, and the asset delay, which is the time between the arrival of a user request and the transmission of the first requested (16 kbytes) minimum acceptable capacities ( l00% 40 slots), 50% (20 data, for small user requirements with varying slots) and 5% (1 slot) planned versus offered cargo.

Ett lägre medel-minimum av acceptabel bandbredd kommer att resultera i högre genomströmning. I fig. 6 visas prestan- dan som blir resultatet om användaren (vilken begär ett l6 kbyte data överflyttande) gör återförsök upp till 8 gånger innan begäran till slut blockeras. Utnyttjandet ökar (och blockeringen minskar) på bekostnad av ökat signalerande samt längre fördröjning. Ett flertal återupprepade försök motverkar produktiviteten om det händer ofta.A lower average minimum of acceptable bandwidth will result in higher throughput. Fig. 6 shows the performance that results if the user (who requests a lb kbyte data transfer) retries up to 8 times before the request is finally blocked. Utilization increases (and blocking decreases) at the expense of increased signaling and longer delays. Several repeated attempts counteract productivity if it happens often.

Det är tydligt att om användaren har ett flexibelt krav, blir sannolikheten att avvisas lägre och genom- strömningen blir allt som allt högre. Vilken som helst av de konfigurationer som presenterats i fig. 5 och fig. 6 kan bestämmas vid ankomsttiden för en begäran. En använ- dare som har strikta krav på en kanals kapacitet kan göra a u 'nu v n. nu ~ u» v nu. u . n -o n . a n n u 17 n o a . sv o u; :om f. nu W 20 25 30 35 | a - | -n 515 407 återförsök tills tillräcklig kapacitet har allokerats, men en annan kanske hellre accepterar en kanal med lägre kapa- citet än den begärda mängden. De återstående simuleringar- na som presenterats här är den acceptabla minimi-bandbred- den definierad som 50% av den begärda kapaciteten.It is clear that if the user has a flexible requirement, the probability of being rejected will be lower and the throughput will be higher and higher. Any of the configurations presented in Fig. 5 and Fig. 6 can be determined at the time of arrival of a request. A user who has strict requirements for a channel's capacity can do a u 'nu v n. Nu ~ u »v nu. u. n -o n. a n n u 17 n o a. sv o u; : om f. nu W 20 25 30 35 | a - | -n 515 407 retries until sufficient capacity has been allocated, but another may prefer to accept a channel with lower capacity than the requested amount. The remaining simulations presented here are the acceptable minimum bandwidth defined as 50% of the requested capacity.

Rent generellt är det genomsnittliga antalet angrän- sande lediga block i en nod litet, p g a det slumpvisa förflyttandet av tokens, och den varierande kapaciteten av användarnas krav. Denna fragmentering gör block token optimering värdelös, och åtkomstfördröjningen är relativt lång (millisekunder) för kanaler med hög kapacitet. För att kunna göra blockallokering effektivt är det nödvändigt att reducera fragmenteringen av lediga tokens, annars kommer fragmentering att vara den främsta bidragande orsaken till åtkomstfördröjning för höga bandbreddskanaler vid någorlunda hög last. Kanaler med låg kapacitet kommer nästan alltid att ha en väldigt kort kanaletablerings- fördröjning oavhängigt av innevarande grad av fragmente- ring. I fallet med luck-återanvändning är fragmenterings- problemet ännu större, då fragmentering kan inträffa i både luck- samt segmentdimensioner (tids- samt rumsdimen- sion) (se fig. 4). Detta är i en centraliserad server- version en speciell tillämpning av det generella dynamiska lagrings-allokeringsproblemet. I en distribuerad token manager är det mesta av fragmenteringen ett resultat av användandet av många lediga pooler (en för varje nod). Två lediga intilliggande tokens kan endast sammanfogas om de finns inom samma nod.In general, the average number of adjacent free blocks in a node is small, due to the random movement of tokens, and the varying capacity of users' requirements. This fragmentation makes block token optimization useless, and the access delay is relatively long (milliseconds) for high capacity channels. In order to make block allocation efficient, it is necessary to reduce the fragmentation of free tokens, otherwise fragmentation will be the main contributing factor to access delays for high bandwidth channels at relatively high loads. Channels with low capacity will almost always have a very short channel establishment delay, regardless of the current degree of fragmentation. In the case of door reuse, the fragmentation problem is even greater, as fragmentation can occur in both door and segment dimensions (time and space dimension) (see Fig. 4). In a centralized server version, this is a special application of the general dynamic storage allocation problem. In a distributed token manager, most of the fragmentation is a result of the use of many free pools (one for each node). Two free adjacent tokens can only be joined if they are within the same node.

Ett distribuerat schema som försöker undvika fragmentering om möjligt och som ökar medelstorleken på fria tokens block i noderna har implementerats. Detta schema används både med och utan luck-återanvändning.A distributed scheme that tries to avoid fragmentation if possible and that increases the average size of free token blocks in the nodes has been implemented. This schedule is used both with and without slot reuse.

Schemat fungerar som följer: l. Fixera en hemnod för varje token då nätverket startas upp och distribuera tokens på så sätt att tokens som delar samma hemnod alltid fixerar en oavbruten luck- » o - . Q- » a» :v u. h. I .a nu. . \ n _; n n o u 1 18 n n u . n u n n. - v » n nu 15 20 25 30 35 - | » . 1 n u - n | | vv u. nu 1 o» .n o . n a a »n u n» . n» n nu a o v q u--n | vu: | | | | vv .u ß: - .n u v.. y n = n .n n n a n n 1 1 1-9 o n u , H | v. _., ,. f., räckvidd. Resultatet blir ett stort genomsnitts- tokenområde i token kartan som visas i fig. 4.The scheme works as follows: l. Fix a home node for each token when the network is started and distribute tokens in such a way that tokens that share the same home node always fix an uninterrupted slot- »o -. Q- »a»: v u. H. I .a nu. . \ n _; n n o u 1 18 n n u. n u n n. - v »n nu 15 20 25 30 35 - | ». 1 n u - n | | vv u. nu 1 o ».n o. n a a »n u n». n »n nu a o v q u - n | vu: | | | | vv .u ß: - .n u v .. y n = n .n n n a n n 1 1 1-9 o n u, H | v. _.,,. f., range. The result is a large average token area in the token map shown in Fig. 4.

När två tokens med luckor som följer på varandra med samma luck- eller segmenträckvidd existerar i den lediga poolen skall de sammanslås till ett enda token (ibland krävs en upprepad klyvnings- och sammanslag- ningsoperation). När sammanslagning sker skall segment- sammanslagning alltid prioriteras före lucknummer- sammanslagningen. (Anledningen till detta är att tokens räckvidd över bara ett litet antal segment är mindre användbara för andra noder än då tokens räckvidd sträcker sig över många segment.) Två tokens efter var- andra följande i segment, vilka representerar åtmins- tone delvis samma luck-räckvidd och som existerar i en nods lediga pool, klyvs för att uppnå tokens som följer efter varandra i segment och som representerar samma luck-räckvidd, vilka sammanslås till ett enda token.When two consecutive tokens with slots with the same slot or segment range exist in the free pool, they must be merged into a single token (sometimes a split and merge operation is required). When merging takes place, segment merging must always be prioritized before the slot number merging. (The reason for this is that the tokens 'range over only a small number of segments is less useful for other nodes than when the tokens' range extends over many segments.) Two tokens in succession in segments, which represent at least partly the same slot. range and which exists in a node's free pool, is split to achieve tokens that follow one another in segments and represent the same slot range, which are merged into a single token.

När en nod får en token-begäran från sin lokala använ- dare eller en användare som befinner sig på långt avstånd, skall en token från token poolen väljas genom användning av den bäst passande algoritmen (best-fit algorithm) i ett lucknummer- och segmentnummerdimension (se fig. 4). Värdet av ett token räknas ut som området i ett token i tokenkartan och vi försöker att välja det token som har det minsta området som ändå tillfreds- ställer den begärda kapaciteten. En kostnadsfunktion kan också definieras som en funktion av t ex antalet luckor, antalet segment, placering av luckor och placering av segment; denna funktion bör emellertid minimeras men kan ändå tillfredsställa den begärda kapaciteten. Denna mekanism kan också användas av servers då de använder en centraliserad token manager.When a node receives a token request from its local user or a user who is at a long distance, a token from the token pool must be selected using the best-fit algorithm in a slot number and segment number dimension. (see Fig. 4). The value of a token is calculated as the area of a token in the token map and we try to select the token that has the smallest area that still satisfies the requested capacity. A cost function can also be defined as a function of, for example, the number of gaps, the number of segments, placement of gaps and placement of segments; however, this feature should be minimized but can still satisfy the required capacity. This mechanism can also be used by servers as they use a centralized token manager.

När en nod behöver begära tokens från andra noder frågar den inte efter små bitar från åtskilliga noder om det är möjligt att fordra större bitar från färre noder. Statustabellerna tillhandahåller denna informa- tion. Förflyttning av tokens är därför mer effektivt, 20 25 30 35 . . | | . > . . | . u. 515 407 Éïïzzïïïïzf 20 . . . . Iaf-n' z och leder till färre etableringsmeddelanden och mindre fragmentering. 5. Lediga tokens skickas tillbaka till hemnoderna när de har varit overksamma under en betydande tidsperiod eller efter en lång förflyttning.When a node needs to request tokens from other nodes, it does not ask for small bits from multiple nodes if it is possible to demand larger bits from fewer nodes. The status tables provide this information. Moving tokens is therefore more efficient. . | | . >. . | . u. 515 407 Éïïzzïïïïzf 20. . . . Iaf-n 'z and leads to fewer establishment messages and less fragmentation. Free tokens are sent back to the home nodes when they have been inactive for a significant period of time or after a long relocation.

Detta schema återsänder tokens till hemnoderna som ett sätt att öka troligheten att två efter varandra följande tokens kan sammanslås i den lediga listan som minskar fragmenteringen. Om hemnodens "gravitation" är för stark, blir schemats resultat färre delade resurser samt onödigt signalerande. Om den är för svag, kommer frag- mentationen att kvarstå som ett problem. "Gravitationen" kan ändras under bussens operation.This scheme returns tokens to the home nodes as a way to increase the probability that two consecutive tokens can be merged into the free list that reduces fragmentation. If the "gravity" of the home node is too strong, the result of the schedule will be fewer shared resources and unnecessary signaling. If it is too weak, fragmentation will remain a problem. The "gravity" can be changed during the operation of the bus.

För att kunna utvärdera defragmenteringsmekanismen utförde vi några andra simuleringar. Tre olika simulatorer (A,B,C) konfigurerades. Simulator A var konfigurerad på så sätt att den inte skulle ha någon som helst fragmentering vid simuleringens starttid och att den skulle använda sig av defragmenteringsschemat som har beskrivits här ovan. B startade med den kompletta resurspoolens maximala frag- mentering. Alla tokens hade en enda lucka och inga tokens i "hem"-noderna innan defragmenteringsmekanismen aktivera- des. Slutligen startades simulator C utan att använda defragmenteringsmekanismen och med maximal fragmentering i poolen. I alla fallen aktiverades luck-återanvändning och lasten bestämdes till 80%.In order to evaluate the defragmentation mechanism, we performed some other simulations. Three different simulators (A, B, C) were configured. Simulator A was configured so that it would not have any fragmentation at the start time of the simulation and that it would use the defragmentation scheme described above. B started with the maximum fragmentation of the complete resource pool. All tokens had a single slot and no tokens in the "home" nodes before the defragmentation mechanism was activated. Finally, simulator C was started without using the defragmentation mechanism and with maximum fragmentation in the pool. In all cases, hatch reuse was activated and the load was determined to be 80%.

I fig. 7 visas åtkomstfördröjningen som en funktion av simulerad tid för ett 10 km långt nätverk. Simulator C startade med lång àtkomstfördröjning och fördröjningen ökade då de signalerande kanalerna blev överbelastade och meddelandeköerna växte. Simulator B som använde sig av defragmenteringsmekanismen fungerade lika dåligt som C vid starten, men redan efter l0 millisekunder blev den genom- snittliga åtkomstfördröjningen mindre än 500 mikrosekun- när en sekund av simulerad tid hade passerat, der. Senare, hinner B-kurvan nästan ikapp A, d v s den sammanlöper i . - > . .n f. u. 10 20 25 30 35 . » . . : o - - | . u» 515 407 - . . « »v simulatorns prestanda trots att den startar nästan utan någon fragmentering överhuvudtaget. Sammanlöpningshastig- heten beror på mängden av ledig kapacitet inom nätverket och därmed också på lasten. Lasten under samtliga dessa simuleringar var 80%. Defragmenteringsmekanismen förbätt- rar tydligt åtkomstfördröjningen och gör också block token optimering meningsfull i den distribuerade modellen.Fig. 7 shows the access delay as a function of simulated time for a 10 km long network. Simulator C started with a long access delay and the delay increased as the signaling channels became congested and the message queues grew. Simulator B, which used the defragmentation mechanism, functioned as poorly as C at start-up, but even after 10 milliseconds, the average access delay was less than 500 microseconds when one second of simulated time had elapsed. Later, the B-curve almost catches up with A, i.e. it merges in. ->. .n f. u. 10 20 25 30 35. ». . : o - - | . u »515 407 -. . «» V the simulator's performance even though it starts almost without any fragmentation at all. The convergence speed depends on the amount of free capacity within the network and thus also on the load. The load during all these simulations was 80%. The defragmentation mechanism clearly improves the access delay and also makes block token optimization meaningful in the distributed model.

Två sorters prestandamätningar är av yttersta vikt: utnyttjandegrad samt åtkomstfördröjning. Utnyttjandegraden är den del av nominell nätverkskapacitet som faktiskt används för dataförflyttning, och det mäter effektiviteten i nätverket. Åtkomstfördröjning är tiden från en användar- begärans anländande till sändningen av den första datan i begäran, vilket är ett viktigt mått på hur trafik från datorkommunikation kan stödjas.Two types of performance measurements are of utmost importance: utilization rate and access delay. The utilization rate is the part of nominal network capacity that is actually used for data transfer, and it measures the efficiency of the network. Access delay is the time from the arrival of a user request to the transmission of the first data in the request, which is an important measure of how traffic from computer communication can be supported.

Till att börja med finns det två viktiga faktorer som har inflytande på utnyttjandegraden i DTM. För det första har varje nod signaleringskapacitet i form av kontrolluckor, vilket betyder att det finns färre till- gängliga luckor för dataförflyttande på en buss med många noder, för en given länkkapacitet. För det andra introdu- ceras "overhead" i och med token-reallokering eftersom då en luck-token reallokeras mellan noder, kan inte den motsvarande luckan användas för dataförflyttning. Ãtkomstfördröjning beror huvudsakligen av lasten på kontrolluckorna, och på hur många kontrollmeddelanden som behöver sändas för att kunna etablera en kanal. Tillgångs- fördröjningen är typiskt en sammanfattning av några för- dröjningar: t ex en nodkontrollants processfördröjning (5 ms), fördröjning i sökning och allokering av lediga tokens (100 ms), väntan på att den första tillgängliga kontroll- (50 ms), den första allockerade dataluckan dardata (62.5 ms). fördröjda i köer vid inkörsporten luckan skall passera och slutligen väntan på att skall fyllas med använ- att meddelanden blir till nodkontrollanter Härtill kommer som väntar på sin process. I de simulationer som har 21 = = w-.f :;=s '=..=...='= - . f | n. n u. Ü 20 25 30 - . s ~ 1 I « | - . .- . - 4 « 1 . 515 407 presenterats nedan är den genomsnittliga fördröjningen upp till några hundra mikrosekunder.To begin with, there are two important factors that influence the degree of utilization in DTM. First, each node has signaling capacity in the form of control slots, which means that there are fewer available slots for data transfer on a bus with many nodes, for a given link capacity. Second, "overhead" is introduced with token reallocation because when a slot token is reallocated between nodes, the corresponding slot cannot be used for data transfer. Access delay depends mainly on the load on the control hatches, and on how many control messages need to be sent in order to establish a channel. The access delay is typically a summary of some delays: eg a node controller's process delay (5 ms), delay in searching and allocating free tokens (100 ms), waiting for the first available control (50 ms), the first allocated data slot data (62.5 ms). delayed in queues at the entrance gate the door should pass and finally the wait to be filled with use- that messages become node controllers In addition, waiting for their process. In the simulations that have 21 = = w-.f:; = s '= .. = ... =' = -. f | n. n u. Ü 20 25 30 -. s ~ 1 I «| -. .-. - 4 «1. 515,407 presented below, the average delay is up to a few hundred microseconds.

Resultat från simuleringar där DTM är utsatt för trafikmönster som mer liknar de relativt kortlivade över- (4-4000 kbyte) kommer här att presenteras. föringar som kan ses i datakommunikation Trafiksorterna sker med skur- vis uppträdande tider mellan ankomsterna, klientserver- orienterade liksom med exponentiellt distribuerade amkomsttider. I simuleringsmodellen börjar varje över- föring med anländandet av ett nytt "paket" med informa- tion. Nodkontrollanten försöker allokera resurser för överföringen, sänder datan och frigör slutligen kanalen.Results from simulations where DTM is exposed to traffic patterns that are more similar to the relatively short-lived over- (4-4000 kbytes) will be presented here. conducts that can be seen in data communication The types of traffic take place with erratic times between arrivals, client-server-oriented as well as with exponentially distributed arrival times. In the simulation model, each transmission begins with the arrival of a new "packet" of information. The node controller tries to allocate resources for the transmission, transmits the data and finally releases the channel.

Detta är en förenkling av mekanismerna inom ett riktigt system, där kanalens etablering, dataöverföring samt kanalens frigörande är självständiga operationer som initieras av användaren. Som exempel kan nämnas att en användare som vet att en överföring skall äga rum kan "gömma" kanaletableringsfördröjningen genom att begära en kanal i förväg, så att den redan är etablerad när över- föringen påbörjas. Under tiden mellan etablerandet och en frigörandet är kapaciteten inom kanalen helt och hållet reserverad för användaren. Den rakaste användningen av en kanal är för en enda överföring, som t ex en filöverföring eller en videosändning.This is a simplification of the mechanisms within a real system, where the establishment of the channel, data transfer and the release of the channel are independent operations initiated by the user. As an example, a user who knows that a transmission is to take place can "hide" the channel establishment delay by requesting a channel in advance, so that it is already established when the transmission begins. In the period between the establishment and a release, the capacity within the channel is entirely reserved for the user. The most straightforward use of a channel is for a single transmission, such as a file transmission or a video transmission.

Beroende på applikationens karaktäristik, kan det vara möjligt att optimera användandet av en kanal. En kanal kan t ex användas för att överföra sekvenser till- höriga högre nivåers meddelanden som t ex ATM celler eller IP-paket (detta liknar användandet av en enda VC för all IP-trafik i ett ATM nätverk). Om kanalen har flera desti- nationer (multicast), kan meddelanden till olika destina- tioner multiplexeras på kanalen. Detta innebär att varje meddelande kommer att nå varje mottagare på multicast- kanalen och mottagarna måste kunna filtrera meddelandena.Depending on the characteristics of the application, it may be possible to optimize the use of a channel. A channel can, for example, be used to transmit sequences associated with higher-level messages such as ATM cells or IP packets (this is similar to the use of a single VC for all IP traffic in an ATM network). If the channel has several destinations (multicast), messages to different destinations can be multiplexed on the channel. This means that each message will reach each receiver on the multicast channel and the recipients must be able to filter the messages.

En alternativ lösning är att skapa och förstöra kanalen för varje meddelande, men reservera tokens mellan med- » .. nu - .I u v. ß _ . .- - . u o I 22 v u . . n u n n. . . < | u 4» »m W 20 25 ~ . « . @ . . - 1 . n- 515 407 - | - | »- 23 delandena så att dessa tokens alltid skall finnas till- gängliga för det följande meddelandet i sekvensen.An alternative solution is to create and destroy the channel for each message, but reserve tokens between med- ».. now - .I u v. Ss _. .- -. u o I 22 v u. . n u n n. . <| u 4 »» m W 20 25 ~. «. @. . - 1. n- 515 407 - | - | »- 23 subdivisions so that these tokens will always be available for the following message in the sequence.

Denna typ av användaruppförande finns inte inkorpo- rerat i simulationerna, eftersom de är optimeringar för särskilda applikationer. Istället ligger fokus på hur nätverket fungerar utan optimeringar på användarnivà.This type of user behavior is not incorporated in the simulations, as they are optimizations for specific applications. Instead, the focus is on how the network works without user-level optimizations.

Sändaren kan börja sända data så snart resurserna har allokerats, t o m innan mottagaren erhåller kanal- etableringsmeddelandet. Detta kallas snabb kanaletable- ring. Mottagaren kommer till slut att svara med ett kontrollmeddelande som bekräftar eller avvisar kanalen.The transmitter can start transmitting data as soon as the resources have been allocated, even before the receiver receives the channel establishment message. This is called fast channel establishment. The receiver will eventually respond with a check message confirming or rejecting the channel.

Användarbegäran har följande parametrar: I Paketstorlek, som är mängden användardata som förflyttas mellan kanaletableringen och kanalfrigörandet. Vi simulerar paketstorlekarna från några få kbytes upp till några få Mbytes. 0 Begärd kapacitet för en kanal, vilket är antalet luckor som en nod försöker allokera. För alla simuleringar i denna text är den begärda kapaciteten fixerad till 40 luckor eller 20.48 Mbit/s. 0 Den minimala acceptabla kapaciteten. En nod blockerar en begäran om den inte kan allokera detta antal luckor.The user request has the following parameters: I Packet size, which is the amount of user data that is moved between the channel establishment and the channel release. We simulate the packet sizes from a few kbytes up to a few Mbytes. 0 Requested capacity for a channel, which is the number of slots that a node is trying to allocate. For all simulations in this text, the requested capacity is fixed at 40 slots or 20.48 Mbit / s. 0 The minimum acceptable capacity. A node blocks a request if it cannot allocate this number of slots.

Detta är normalt inställt på 40 eller 20 luckor (l00% eller 50% av den begärda kapaciteten). 0 Källadress. 0 Destinationsadress.This is normally set to 40 or 20 slots (100% or 50% of the required capacity). 0 Source address. 0 Destination address.

Käll- och destinationsadresserna genereras slumpmässigt (samtliga noder med samma sannolikhet) och tiderna mellan en användares ankomsttider är exponentiellt distribuerade.The source and destination addresses are generated randomly (all nodes with the same probability) and the times between a user's arrival times are exponentially distributed.

Simuleringarna undersöker hur effekten av signalerings- kapacitet samt "overhead" p g a luck-reallokering inverkar på utnyttjandegrad, kanaletableringsfördröjning samt blockering. Vi simulerar varierande trafikförhàllanden, för en topologi med följande karaktäristik: n in» n n» 20 25 35 | . - . » . - » ~ | :- 515 407 . - - : u u 0 Ett dubbel-bussnätverk med 100 noder. Trots att det är teoretiskt möjligt att sammanbinda många fler noder till en buss, tror vi att nätverkshanteringen av nätverk med fler än 100 noder på en buss kommer att vara opraktiskt.The simulations examine how the effect of signaling capacity and "overhead" due to luck reallocation affects the degree of utilization, channel establishment delay and blocking. We simulate varying traffic conditions, for a topology with the following characteristics: n in »n n» 20 25 35 | . -. ». - »~ | : - 515 407. - -: u u 0 A double-bus network with 100 nodes. Although it is theoretically possible to connect many more nodes to a bus, we believe that network management of networks with more than 100 nodes on a bus will be impractical.

Med 100 noder är kapacitetsdelningen tillräckligt signifikant för att utöva och testa token management protokollet.With 100 nodes, the capacity sharing is significant enough to exercise and test the token management protocol.

Varje buss har en kapacitet av 6.4 Gbit/s. Vi tror att detta är realistiskt för vad som är genomförbart inom ett eller ett par år; 2.4 Gbit/s optiska länkar har funnits tillgängliga i några år, och det har annonserats att 10 Gbit/s länkar snart kommer att finnas på mark- naden. 6.4 Gbit/s motsvarar 100 MHz luckfrekvens, vilket är den hastighet som den luck-processerande MAC- hårdvaran skulle arbeta med i befintlig CMOS teknologi. med denna uppnåbara hastighet Den totala signalkapaciteten är densamma för alla noder, men luckorna är uppdelade mellan två fiberriktningar proportionellt, beroende på var noderna är placerade på bussen. Ju närmare en nod befinner sig till luck- generatorn, desto mer kontrollkapacitet behövs det.Each bus has a capacity of 6.4 Gbit / s. We believe that this is realistic for what is feasible within a year or two; 2.4 Gbit / s optical links have been available for a few years, and it has been announced that 10 Gbit / s links will soon be on the market. 6.4 Gbit / s corresponds to 100 MHz slot frequency, which is the speed at which the slot-processing MAC hardware would work at existing CMOS technology. at this achievable speed The total signal capacity is the same for all nodes, but the slots are divided between two fiber directions proportionally, depending on where the nodes are located on the bus. The closer a node is to the slot generator, the more control capacity is needed.

Summan av kontrollkapacitet på båda bussarna kommer emellertid att vara densamma för alla noder. I nätverket med två token "servers" har dessa "servers" mer kontrollkapacitet och högre processeringskapacitet än de andra noderna.However, the sum of control capacity on both buses will be the same for all nodes. In the network with two token "servers", these "servers" have more control capacity and higher processing capacity than the other nodes.

Bussens längd är 10 km, vilket ger ett tillräckligt stort nätverk, så att effekterna av spridningen inte är försumbara. Resultat från studier av effekterna av spridningsfördröjning i simuleringar med olika buss- längder presenteras i figurerna 11 och 13.The length of the bus is 10 km, which provides a sufficiently large network, so that the effects of the spread are not negligible. Results from studies of the effects of spread delay in simulations with different bus lengths are presented in Figures 11 and 13.

Två olika modeller för token management simuleras: ett asymmetrisk schema där alla tokens på en fiber sköts av en enda token server och ett symmetriskt schema där varje nodkontrollant sköter en liten del av den globala token poolen. ~ u» nu n -n w »- u . . v. n 1 1 u u 24 I u . , nu n .I u» - | « | n» .n u. 20 25 30 35 . - « . « » » ø » | nu 515 407 | - | | »o När man analyserar DTM dubbelbuss-nätverkets prestanda, måste frågan om maximal teoretisk prestanda betraktas och jämföras med den simulerade prestandan. Den maximala teoretiska prestandan används också i denna text för att jämföra de olika modeller och implementationer som vi utvärderar.Two different models for token management are simulated: an asymmetric scheme where all tokens on a fiber are managed by a single token server and a symmetric scheme where each node controller manages a small part of the global token pool. ~ u »nu n -n w» - u. . v. n 1 1 u u 24 I u. , nu n .I u »- | «| n ».n u. 20 25 30 35. - «. «» »Ø» | nu 515 407 | - | | »O When analyzing the performance of the DTM dual bus network, the question of maximum theoretical performance must be considered and compared with the simulated performance. The maximum theoretical performance is also used in this text to compare the different models and implementations that we evaluate.

Den maximala genomströmningen i ett dubbel-buss- system utan luck-återanvändning kan definieras som två gånger länkkapaciteten, om förhållandet är så att båda fibrerna erhåller samma trafik. I ett system med luck- återanvändning, beror systemets genomströmning också på fördelningen av käll-/destinationspar. För att dubbel- bussen skulle kunna erhålla denna genomströmning, använde vi en Monte Carlo simulering där käll- och destinations- adresser var uniformt distribuerade fig. 8). konfiguration såsom definierats nedan vid användning av en (se vänster graph av Vid jämförelse med ett DTM-nätverk (simulator- centraliserad token manager) där användaren begär stora (4 MB vid 20 Mbit/s kapacitet) signaleringskapaciteten inte är en flaskhals (se höger överflyttningar och graph av fig. 8), är utnyttjandet nära nog idealiskt.The maximum throughput in a double-bus system without door reuse can be defined as twice the link capacity, if the ratio is such that both fibers receive the same traffic. In a system with slot reuse, the throughput of the system also depends on the distribution of source / destination pairs. In order for the double bus to be able to obtain this throughput, we used a Monte Carlo simulation where source and destination addresses were uniformly distributed (Fig. 8). configuration as defined below when using a (see left graph of When compared to a DTM network (simulator-centralized token manager) where the user requests large (4 MB at 20 Mbit / s capacity) the signaling capacity is not a bottleneck (see right transfers and graph of Fig. 8), the utilization is almost ideal.

Verklig trafik som beter sig på detta sätt är bulk-data överföringar och audio/video strömmar. Olikheterna som visas är resultat av: En del kapacitet inom DTM används av kontrolluckor som sänker antalet tillgängliga luckor som kan användas vid dataöverföringar. Sllumpgeneratorerna för DTM systemet generar inte exakt samma mängd trafik i riktningarna uppströms och nedströms. Detta kan resultera i blockering av en av riktningarna när kapacitet finns tillgänglig i den andra. Under kanaletableringen kan resurserna tillfälligtvis låsas outnyttjade, vilket slösar bort en del kapacitet.Real traffic that behaves this way is bulk data transfers and audio / video streams. The differences shown are the result of: Some capacity within DTM is used by control slots that reduce the number of available slots that can be used for data transfers. The random number generators for the DTM system do not generate exactly the same amount of traffic in the upstream and downstream directions. This can result in blocking one of the directions when capacity is available in the other. During channel establishment, resources can be temporarily locked unused, which wastes some capacity.

I fallet med den centrala token manager som tidigare nämnts, behöver de två noder som står för skötseln mer signaleringskapacitet än övriga noder (åtta gånger flera kontrolluckor tilldelas en servernod än till övriga noder). . . <. .u - -. I v»- | x . ~ n - 1 a . » 25 - - . ß u ~ H K.. - , 1 - u. a» n. 15 20 25 30 35 | - » - »- 515 407 §ÉÉ=§ÉI§ï= n u 1. n: u v. a 'nu .n c n z n . 1 26 v n » 1 n. n nu u» Resultaten från den första uppsättningen simulering- ar presenteras i fig. 9. Kanaler med 20 Mbit/S användar- begäran, tiderna mellan ankomsterna är exponentiellt dis- tribuerade (genererade av en Poisson process) och simule- ringarna utförs med olika paketstorlekar. Om hela kapaci- teten för en kanal inte kan allokeras, avvisas förfrågan och tokens återsänds till sin token server. Paketstorlekar varierar från 4 Mbyte till 4 kbyte, vid detta läge börjar man se en försämring av genomströmningen.In the case of the central token manager mentioned earlier, the two nodes responsible for maintenance need more signaling capacity than the other nodes (eight times more control slots are assigned to a server node than to the other nodes). . . <. .u - -. I v »- | x. ~ n - 1 a. »25 - -. ß u ~ H K .. -, 1 - u. a »n. 15 20 25 30 35 | - »-» - 515 407 §ÉÉ = §ÉI§ï = n u 1. n: u v. A 'nu .n c n z n. 1 26 vn »1 n. N nu u» The results from the first set of simulations are presented in Fig. 9. Channels with 20 Mbit / S user request, the times between arrivals are exponentially distributed (generated by a Poisson process) and the simulations are performed with different package sizes. If the entire capacity of a channel cannot be allocated, the request is rejected and the tokens are returned to their token server. Packet sizes vary from 4 Mbytes to 4 Kbytes, at this point you start to see a deterioration of the throughput.

Försämring av genomströmningen kan inträffa om processkapaciteten i noderna eller kapaciteten i kontrollkanalen är för liten. Servernoderna kan vara speciellt överbelastade. Resultatet blir att köerna som innehåller kontrollmeddelanden börjar bli väldigt stora.Impairment of the throughput can occur if the process capacity in the nodes or the capacity in the control channel is too small. The server nodes can be particularly congested. The result is that the queues that contain control messages begin to become very large.

Kontrolltokens representerar outnyttjad kapacitet, och därför försämras genomströmningen.The control token represents unused capacity, and therefore the throughput deteriorates.

I simuleringarna för 4 kbyte per kanal är kontroll- kapaciteten den begränsande faktorn, och om fler kontroll- luckor (signaleringskapacitet) adderas, kan 4 kbyte och t o m mindre paket mer effektivt understödjas.In the simulations for 4 kbytes per channel, the control capacity is the limiting factor, and if more control slots (signaling capacity) are added, 4 kbytes and even smaller packets can be supported more efficiently.

Den följande uppsättningen kurvor i fig. 10 visar hur luck-återanvändningsmekanismen förbättrar systemets prestanda. Genomströmningen ökar med nästan en faktor två innan något signifikant antal kanaler avvisas. Den uniforma fördelningen av käll- och destinationsadresser för kanalerna begränsar mängden ökad kapacitet som man vinner på luck-återanvändning. Det har visat sig att om källan och destinationen är jämnt genererade, som vi har gjort, kan genomströmningen fördubblas på en dubbelbuss. I simuleringarna kan man också se att bortom en erbjuden last på 2.5 kan man faktiskt få en genomströmning som är högre än 2.0. Denna nivå av genomströmning kan emellertid inte uppnås utan att några kanaler avvisas. Kanalerna med den högsta sannolikheten att bli avvisade är de som använ- der många luckor eller segment. Av denna anledning filtre- rar systemet de mindre giriga användarkraven och kastar bort de andra. Detta är normalt sett inte ett acceptabelt . - . I I; u m. l5 20 25 30 35 - | - . f u . » - . nu 515 407 beteende och vi undersöker därför inte detta närmare.The following set of curves in Fig. 10 shows how the slot reuse mechanism improves system performance. The throughput increases by almost a factor of two before any significant number of channels are rejected. The uniform distribution of source and destination addresses for the channels limits the amount of increased capacity gained from slot reuse. It has been shown that if the source and destination are evenly generated, as we have done, the throughput can be doubled on a double bus. In the simulations, you can also see that beyond an offered load of 2.5, you can actually get a throughput that is higher than 2.0. However, this level of throughput cannot be achieved without some channels being rejected. The channels with the highest probability of being rejected are those that use many gaps or segments. For this reason, the system filters the less greedy user requirements and discards the others. This is not normally acceptable. -. I I; u m. l5 20 25 30 35 - | -. f u. »-. now 515 407 behavior and we therefore do not investigate this further.

Genomströmningsförsämring inträffar vid en erbjuden last på 1 vid överföringar på 4 kbyte. Även om tillräckliga resurser är tillgängliga inom token servern är det inte möjligt att etablera och frigöra kanaler tillräckligt snabbt eftersom kontrollkanalen är överbelastad. Dessutom kan man också se en genomströmningsförsämring av 8 kbyte simuleringar vid en erbjuden last på 1.8, av samma anled- ning.Flow deterioration occurs with an offered load of 1 for transmissions of 4 kbytes. Although sufficient resources are available within the token server, it is not possible to establish and release channels quickly enough because the control channel is overloaded. In addition, one can also see a throughput deterioration of 8 kbyte simulations at an offered load of 1.8, for the same reason.

Man kan dra slutsatsen från simuleringarna i fig. 10 att luck-återanvändningsmekanismen nästan fördubblar sys- temets genomströmning med endast smärre förändringar i det centraliserade token-protokollet, så länge som kontroll- och server processing-kapaciteten inte är en flaskhals. I kurvorna kan man också oväntat se att åtkomstfördröjning faktiskt minskar när lasten ökar från 0.1 till 0.5. Detta är ett resultat av hur luckorna är tilldelade inom en kanal och inte från ett snabbare tokenkravsförlopp. Den tid det tar att begära tokens från en server ökar strikt.It can be concluded from the simulations in Fig. 10 that the slot reuse mechanism almost doubles the throughput of the system with only minor changes in the centralized token protocol, as long as the control and server processing capacity is not a bottleneck. In the curves, it can also be unexpectedly seen that the access delay actually decreases when the load increases from 0.1 to 0.5. This is a result of how the slots are allocated within a channel and not from a faster token claim process. The time it takes to request tokens from a server is strictly increasing.

När man jämför DTM-prestandan i fig. 10 och de teoretiska värdena i fig. 8 kan man se att även de korta skurarna (några få millisekunders varaktighet) kan understödjas effektivt.When comparing the DTM performance in Fig. 10 and the theoretical values in Fig. 8, it can be seen that even the short bursts (duration of a few milliseconds) can be effectively supported.

När en enda token server används, kräver varje kanaletablering ett token som skall begäras från en server innan noden kan etablera kanalen. Om busslängden ökas kommer tokenbegäran att ta längre tid och kan därför begränsa genomströmningen och öka åtkomstfördröjningen.When a single token server is used, each channel establishment requires a token to be requested from a server before the node can establish the channel. If the bus length is increased, the token request will take longer and can therefore limit the throughput and increase the access delay.

I fig. vilka busslängden ökas från 100 till 1000 km (nod till nod distans är nu 50 ms). ll visas resultatet av simuleringarna, i Både åtkomstfördröjningen samt genomströmningen är nu begränsade av utbredningstiden tur och retur till en token-server. Åtkomstfördröjningen i det här fallet beror på avståndet till servers, men är oberoende av överförings- storleken. Utnyttjandegraden beror mycket på överförings- - nu I nu nu » nu v -fl u vn u - . 1 n q a a n 27 - u n . s» n n n.In fig. Which the bus length is increased from 100 to 1000 km (node to node distance is now 50 ms). ll show the results of the simulations, in Both the access delay and the throughput are now limited by the propagation time round trip to a token server. The access delay in this case depends on the distance to the servers, but is independent of the transmission size. The degree of utilization depends a lot on the transfer - - nu I nu nu »nu v -fl u vn u -. 1 n q a a n 27 - u n. s »n n n.

. . , . .I u u. 15 20 25 35 « - ~ . a. 515 407 ~ u - . .n ., n .nu . n n ~ 28 u o n - m» c nu ef; storleken eftersom etableringsfasen kan amorteras under en lång dataöverföringsfas. Kanaler som överför stora mängder information, som t ex 256 kbyte, med en varaktighet av en tiondels sekund kan fortfarande effektivt understödjas när busslängden är 1000 km.. . ,. .I u u. 15 20 25 35 «- ~. a. 515 407 ~ u -. .n., n .nu. n n ~ 28 u o n - m »c nu ef; size because the establishment phase can be amortized during a long data transfer phase. Channels that transmit large amounts of information, such as 256 kbytes, with a duration of one tenth of a second can still be effectively supported when the bus length is 1000 km.

När en centraliserad token manager används får man många fördelar. Klienter kan vara enkla, eftersom de bara innehåller tillståndsinformation som är relaterad till deras egna öppna kanaler. Luck-àteranvändningen är också enkel och effektiv, då en tokenserver har samtliga lediga tokens att välja bland när den försöker tillfredsställa ett användarkrav. En server kan också implementera andra policy-relaterade funktioner som t ex uppkopplingskontroll (admission control) samt rättvisa (fairness). Den lediga poolens fragmentering inom en server är normalt väldigt blygsam, vilket resulterar i väldigt få etablerings- meddelanden per kanal, även då det gäller användarkrav som begär hög kapacitet.When a centralized token manager is used, you get many benefits. Clients can be simple, as they only contain state information related to their own open channels. Luck reuse is also simple and efficient, as a token server has all the available tokens to choose from when trying to satisfy a user requirement. A server can also implement other policy-related functions such as access control and fairness. The fragmentation of the free pool within a server is normally very modest, which results in very few establishment messages per channel, even when it comes to user requirements that require high capacity.

Det finns också nackdelar. En användare som ofta etablerar och frigör kanaler kan introducera överskridande signalering genom att alltid återsända tokens efter använ- dandet, för att sedan begära dessa tokens igen inom en kort tidsperiod. Processing-kapaciteten hos servernoden kan bli överbelastad om det finns många noder på bussen eller om den genomsnittliga paketstorleken är mycket liten. Om media-längden är väldigt stor i relation till produkten av bit-period, bitar per paket samt mediahastig- het. Utbredningshastigheten tur och retur till en server kan också begränsa prestandan. Slutligen innehåller servernoden information om tillstånd, som alla noder är beroende av för att kunna skapa kanaler. En servernods misslyckande kan därför ha en effekt på samtliga noder.There are also disadvantages. A user who often establishes and releases channels can introduce excessive signaling by always returning tokens after use, and then requesting these tokens again within a short period of time. The processing capacity of the server node can be overloaded if there are many nodes on the bus or if the average packet size is very small. If the media length is very large in relation to the product of bit period, bits per packet and media speed. The return speed to a server can also limit performance. Finally, the server node contains state information, on which all nodes depend in order to create channels. The failure of a server node can therefore have an effect on all nodes.

I nästa stycke simuleras och undersöks egenskaperna av en helt och hållet distribuerad token manager.In the next paragraph, the properties of a fully distributed token manager are simulated and examined.

När man utvärderar prestandan för en distribuerad token manager med luck-återanvändning samt defragmente- | ~ - - nu U ..- 15 20 25 30 35 1 a . , .n u. nu I u v: v... .n v | nu u | n z n n . n. u | u u. n .a u u u u en; u n » ; « - « m a; 1.. ~ n. v -~. - 1 u 4 .I n n | n r n . .n n »- -n 29 i I I ring, använder man sig av samma trafik och parametrar som i fallet med en central token manager, men med en policy där kraven accepteras om 50% av den begärda kapaciteten kan allokeras.When evaluating the performance of a distributed token manager with luck reuse and defragment | ~ - - nu U ..- 15 20 25 30 35 1 a. , .n u. nu I u v: v .... .n v | nu u | n z n n. n. u | u u. n .a u u u u en; u n »; «-« m a; 1 .. ~ n. V - ~. - 1 u 4 .I n n | n r n. .n n »- -n 29 i I I ring, the same traffic and parameters are used as in the case of a central token manager, but with a policy where the requirements are accepted if 50% of the requested capacity can be allocated.

Resultaten som presenteras i fig. 12 är från en simulator med luck-återanvändning, en helt och hållet dis- tribuerad token manager, statusmeddelanden som beskriver hur mycket kapacitet en nod äger, och defragmenterings- schemat. Samtliga noder har samma processing-kapacitet och processing-lasten är mycket 10 erhåller. mindre, vilket resulterar i en högre tillförlitlighets- lägre än det som mottagarna i fig. Beroendet mellan noderna är också mycket grad. Systemet fungerar bättre än något annat system som inte tillhandahåller luck-återanvändning, men inte så bra som det centraliserade systemet luckåteranvändning som beskrivits tidigare.The results presented in Fig. 12 are from a luck reuse simulator, a fully distributed token manager, status messages describing how much capacity a node owns, and the defragmentation scheme. All nodes have the same processing capacity and the processing load is very 10 received. smaller, which results in a higher reliability- lower than that of the receivers in Fig. The dependence between the nodes is also very degree. The system works better than any other system that does not provide door recycling, but not as well as the centralized door recycling system described earlier.

När man jämför den här konfigurationens prestanda 10, att blockeringen är högre och vissa krav kan blockeras vid och den centraliserade token manager i fig. ser man en mycket lägre last i den distribuerade implementationen.When comparing the performance of this configuration 10, that the blocking is higher and certain requirements can be blocked at and the centralized token manager in fig., One sees a much lower load in the distributed implementation.

Ett oväntat resultat var att prestandan faktiskt minskade när paketstorleken ökade! Efter en ytterligare kontroll av resultaten fann man att en stor genomsnittlig överföringsstorlek resulterar i mindre token-rörelse och att förhållandeinformationen faktiskt ger en ännu sämre syn på fria resurser inom nätverket än för korta över- föringar. I detta fall avvisas en begäran om man inte tror att man skall hitta några resurser. Denna mekanism intro- ducerades för att undvika att kontrollkapacitet skulle slösas bort när resurserna var utarmade.An unexpected result was that performance actually decreased as the package size increased! After a further check of the results, it was found that a large average transmission size results in less token movement and that the relational information actually gives an even worse view of free resources within the network than for short transmissions. In this case, a request is rejected if you do not think you should find any resources. This mechanism was introduced to avoid wasting control capacity when resources were depleted.

Anledningen till detta är att statusmeddelandena bara beskriver "globala" tokens som täcker alla segment på bussen. Ett globalt token kan användas av vilken nod som helst och är det enda sortens token i ett DTM-system utan luck-återanvändning. Vid en last som är högre än 1.00 n -u- 20 25 30 35 nu m. ~ -v 'v-I 1 nu u. n 1 n u _ u- v v .-| n » f n u > n n 4- n 1 . . « U »v v . .u u »vn . - 1 o o n a o n n . f; u v» ., 30 o vo segmenteras ett stort antal tokens och återanvändnings- schemat behöver dem för att kunna använda dem till nya förfrågningar. Därför är mekanismen med statusmeddelanden som används (och som utvecklades för ett system utan återanvändning) begränsad i sina möjligheter att tillgodo- se nya krav i deras sökande efter ledig kapacitet, och kan i värsta fall resultera i högre blockering.The reason for this is that the status messages only describe "global" tokens that cover all segments of the bus. A global token can be used by any node and is the only type of token in a DTM system without slot reuse. At a load higher than 1.00 n -u- 20 25 30 35 nu m. ~ -V 'v-I 1 nu u. N 1 n u _ u- v v .- | n »f n u> n n 4- n 1. . «U» v v. .u u »vn. - 1 o o n a o n n. f; u v »., 30 o vo segment a large number of tokens and the reuse scheme needs them to be able to use them for new requests. Therefore, the mechanism of status messages used (and developed for a system without reuse) is limited in its ability to meet new requirements in their search for available capacity, and can in the worst case result in higher blocking.

Genomströmningen och åtkomstfördröjningen i en distribuerad token manager med busslängder från 1 km till 13. Ett litet 16 kbyte paket sänds mellan etablering och frigörande av en kanal, för (100-tals kbytes) i systemet mycket mindre påverkat av busslängden. Bussarna 1000 km presenteras i fig. stora paket är genomströmningsprestandan som är 1 km och 100 km ger ungefär samma resultat vad avser genomströmning och åtkomstfördröjning som den 10 km långa bussen, eftersom fördröjningen som introduceras när en 125 ms cykel används, dominerar över utbredningstiden inom systemet. Beträffande den 1000 km långa bussen kan man se att åtkomstfördröjningen blir mycket kortare än i 1000 km systemet då man använder en centraliserad token server, speciellt vid låg last, då man finner tokens väldigt nära noden till vilken användarförfrågan anländer och fördröjningen är ungefär densamma i alla system. T o m vid väldigt hög börda är åtkomstfördröjningen ungefär en millisekund kortare än i systemet med en centraliserad SGIVGI .The throughput and access delay in a distributed token manager with bus lengths from 1 km to 13. A small 16 kbyte packet is sent between the establishment and release of a channel, for (100s of kbytes) in the system much less affected by the bus length. The 1000 km buses are presented in Fig. Large packages, the throughput performance which is 1 km and 100 km gives approximately the same result in terms of throughput and access delay as the 10 km long bus, since the delay introduced when a 125 ms cycle is used dominates the propagation time within the system . Regarding the 1000 km long bus, you can see that the access delay is much shorter than in the 1000 km system when using a centralized token server, especially at low load, when you find tokens very close to the node to which the user request arrives and the delay is about the same in all system. Even at very high loads, the access delay is approximately one millisecond shorter than in the system with a centralized SGIVGI.

Det centraliserade token manager-systemet har samma prestanda nästan oberoende av trafiken så länge som processing- och signaleringskapacitet är tillräckliga. För att kunna utvärdera det distribuerade systemet använde vi oss av två andra trafikgeneratorer. Först använde vi en generator som simulerar användarkrav som anländer i skurar. När en begäran anländer definierade vi att en ny begäran skulle anlända med 90% trolighet efter 200 ms.The centralized token manager system has the same performance almost independently of the traffic as long as the processing and signaling capacity is sufficient. To be able to evaluate the distributed system, we used two other traffic generators. First, we used a generator that simulates user requirements that arrive in showers. When a request arrives, we defined that a new request would arrive with 90% probability after 200 ms.

Resultatet blev, att en skur av fordringar anländer till en nod och tvingar hög temporallokalitet hos källadresser- na. För det andra, för att generera trafik som är mer lik w .n 20 25 30 35 - | - . .u 515 407 . » - | .w klient-serverbeteendet, ökades mängden trafik som anlände 25, 50, 75 och 99. heten att finna en server-destination är också högre. till 5 server noder: nummer O, Trolig- I fig. 14 presenteras prestanda av genomströmning samt åtkomstfördröjning i det distribuerade token server- systemet.The result was that a shower of receivables arrives at a node and forces a high temporal location at the source addresses. Second, to generate traffic that is more similar to w .n 20 25 30 35 - | -. .u 515 407. »- | .w client-server behavior, the amount of traffic that arrived at 25, 50, 75 and 99 increased. the ability to find a server destination is also higher. to 5 server nodes: number O, Probable- Fig. 14 shows the performance of throughput and access delay in the distributed token server system.

Det är uppenbart att den distribuerade modellen har flera fördelar men också nackdelar jämfört med en centra- liserad token server. Noderna kan dela processing-lasten, behovet av högpresterande token servers är lägre, redun- dansen kan vara högre och åtkomstfördröjningen kan vara kortare för lägre kapacitetskrav. Nackdelarna är högre blockering för en oflexibel användare som därför kanske måste återupprepa försök många gånger för att få tillgång till de nödvändiga resurserna. Det är också uppenbart att statusmeddelanden och mekanismen med statustabell måste ändras för att undvika onödig blockering när luck- återanvändning är tillåten.It is obvious that the distributed model has several advantages but also disadvantages compared to a centralized token server. The nodes can share the processing load, the need for high-performance token servers is lower, the redundancy can be higher and the access delay can be shorter for lower capacity requirements. The disadvantages are higher blocking for an inflexible user who may therefore have to repeat attempts many times to gain access to the necessary resources. It is also obvious that status messages and the status table mechanism must be changed to avoid unnecessary blocking when door reuse is allowed.

När bördan ökar över en viss grad, blir det svårt att finna lediga tokens, blockeringen blir betydlig och utnyttjandet ökar endast marginellt med lasten. Graden av blockering vid en given last beror mest på minimikapaci- tetskraven i användarens begäran. Ju lägre minimikapaci- tet, desto högre är troligheten att nöden skall kunna tillfredsställa kravet. Dessutom sänds bara en omgång token-krav ut för varje användarbegäran i dessa simule- ringar. Utnyttjandet kan ökas om man genomför flera omgångar (d v s använder återförsök), på bekostnad av längre åtkomstfördröjning.When the burden increases above a certain degree, it becomes difficult to find free tokens, the blockage becomes significant and the utilization increases only marginally with the load. The degree of blockage at a given load depends mostly on the minimum capacity requirements in the user's request. The lower the minimum capacity, the higher the probability that the need will be able to satisfy the requirement. In addition, only one round of token requirements is sent out for each user request in these simulations. Utilization can be increased if you perform several rounds (ie use retry), at the expense of a longer access delay.

Om man antar att de ovan nämnda väntetiderna är oberoende, kommer den genomsnittliga åtkomstfördröjningen, om en enda kontrollucka finns och om nätverket har en lätt belastning, och lånandet är inte är tätt, att resultera i en genomsnittlig åtkomstfördröjning på ungefär l25 ms (en enda cykel). 31 Z C 2 Z' ..' 2 '..'...' ~ ~ . - .o m n. 20 25 30 35 515 407 Dessutom kan det behövas många kontrollmeddelanden för att kunna etablera en kanal, p g a fragmentering, vilket ökar lasten på kontrollkanalen ännu mer, och därmed också åtkomstfördröjningen. Faktum är, att utan något effektivt "defragmenteringsschema" blir fragmentering den dominerande bidragande orsaken till åtkomstfördröjningen i simuleringarna.Assuming that the above waiting times are independent, the average access delay, if there is a single control slot and if the network has a light load, and the borrowing is not dense, will result in an average access delay of approximately l25 ms (a single cycle ). 31 Z C 2 Z '..' 2 '..'...' ~ ~. - .o m n. 20 25 30 35 515 407 In addition, many control messages may be needed to be able to establish a channel, due to fragmentation, which increases the load on the control channel even more, and thus also the access delay. In fact, without an effective "defragmentation scheme", fragmentation becomes the dominant contributing factor to the access delay in the simulations.

En konsekvens av DTM:s luck-reallokeringsmekanism är att det tar längre tid att etablera kanaler som kräver hög bandbredd. Denna kompromiss kan rättfärdigas: Den typen av trafik som behöver kort genomsnittlig åtkomstfördröjning är oftast mindre känslig för mängden bandbredd som har allokerats för överföringen, och sådan trafik kan därför accepteras utan speciellt mycket engagemang av realloke- ringsprotokollet. För överföringar som kräver hög band- bredd, kommer åtkomstfördröjningen att bli mycket längre och kommer nästan alltid att engagera reallokeringsproto- kollet. Generellt sett, breddsöverföringar förmodligen att vara mindre känsliga kommer emellertid höga band- för åtkomstfördröjning.One consequence of DTM's luck reallocation mechanism is that it takes longer to establish channels that require high bandwidth. This compromise can be justified: the type of traffic that needs a short average access delay is usually less sensitive to the amount of bandwidth that has been allocated for the transmission, and such traffic can therefore be accepted without much commitment from the reallocation protocol. For transmissions that require high bandwidth, the access delay will be much longer and will almost always involve the reallocation protocol. In general, however, width transmissions are likely to be less sensitive, high bandwidth- for access delay.

Dessa simuleringar har visat att DTM:s protokoll för snabb kretskopping uppvisar god prestanda för en dubbel- buss med delat medium. Två modeller för token management har analyserats och båda presterar väl och kan dra fördel av luck-återanvändning. Den centraliserade modellen ger den prestanda som närmast liknar det idealiska fallet och resulterar också i en enkel implementation. Det distribu- erade systemet är mer känsligt för användarbeteendet och måste därför stå i ett beroendeförhållande till status- information som sänds ofta och till en defragmenterings- metod, för att minska antalet kontrollmeddelanden som krävs för kanaletablering och luck-reallokering. Om man använder defragmenteringsmetoden på långa bussar, uppvisar den distribuerade modellen bättre prestanda än den centraliserade modellen (jämför figurerna ll och 13). Ett resursmanagementsystem som kombinerar den centraliserade | - | . . u 1 |~ .H . a» v u.. - f - .u 0 n » . . 32 u I q . f» u n m. .1 ..- « ~ - « .n 515 407 och den distribuerade modellen genom användning av en liten uppsättning token server noder är också möjligt.These simulations have shown that DTM's protocol for fast circuit switching shows good performance for a double bus with shared medium. Two models for token management have been analyzed and both perform well and can benefit from luck reuse. The centralized model provides the performance that most closely resembles the ideal case and also results in a simple implementation. The distributed system is more sensitive to user behavior and must therefore be dependent on status information that is sent frequently and on a defragmentation method, in order to reduce the number of control messages required for channel establishment and slot reallocation. If the defragmentation method is used on long buses, the distributed model shows better performance than the centralized model (compare Figures 11 and 13). A resource management system that combines the centralized | - | . . u 1 | ~ .H. a »v u .. - f - .u 0 n». . 32 u I q. f »u n m. .1 ..-« ~ - «.n 515 407 and the distributed model using a small set of token server nodes is also possible.

Dessutom kan "overhead" p g a kanaletäblering hållas väldigt låg, vilket resulterar i högre utnyttjande även inom små (några få kbytes) överföringar. Ãtkomstfördröj- ning befinns vara några hundra mikrosekunder även vid hög last. Luck-återanvändningsmetoden och arrangemanget enligt uppfinningen kan öka prestandan med en faktor två utan att introducera någon ytterligare hårdvara i noderna. Vid användandet av luck-återanvändningsmetoden är det viktigt att man använder defragmenteringsmetoden, eftersom fragmentering kan inträffa i både luck- och segmentdimensionerna. ~ | - . c. v . , _ n, ha . n. u n.. 1 m 1 o -u f f e 1 . 33 u n ; i s. v m u. n. u.In addition, "overhead" due to channel tapping can be kept very low, which results in higher utilization even within small (a few kbytes) transmissions. The access delay is found to be a few hundred microseconds even at high loads. The luck reuse method and arrangement of the invention can increase performance by a factor of two without introducing any additional hardware into the nodes. When using the door reuse method, it is important to use the defragmentation method, as fragmentation can occur in both the door and segment dimensions. ~ | -. c. v. , _ n, ha. n. u n .. 1 m 1 o -u f f e 1. 33 u n; i s. v m u. n. u.

Claims (1)

10 15 20 25 30 . - - - <- .. ..- 34 515 407 PATENTKRAV l. Plan för återanvändning av tidluckor för ökning av genomströmning i ett DTM (Dynamic Synchronous Transfer Mode) nätverk, kännetecknad av - att DTM block token-formatet är förlängt så att det inbegriper parametrar som beskriver segment(en) mellan käll- och destinationsnoden, - att block token-kapaciteten enbart reserveras på segment(en) mellan käll- och destinationsnoden, - att två eller flera tokens som representerar samma tidluckor för åtföljande segment, sammanslås till ett enda token när de existerar inom en nods lediga pol, samt - att simultana transmissioner inom samma lucka över åtskilda segment inom nätverket möjliggörs. 2. Plan för återanvändning av tidluckor enligt kravet 1, kännetecknad av att den implementeras med en centraliserad metod för administrering av tokens. 3. Plan för återanvändning av tidluckor enligt kravet l, kännetecknad av att den implementeras med en distribuerad metod för administrering av tokens. 4. Plan för återanvändning av tidluckor enligt kravet 1, kännetecknad av att den implementeras i ett system för administrering av resurser, som kombinerar de centralise- rade och de distribuerade modellerna, och därigenom använ- der en liten uppsättning token server noder. 5. Plan för återanvändning av tidluckor enligt något av kraven 1 - 4, kännetecknad av att den är kombinerad med en defragmenteringsmetod, i vilken - en hemnod definieras för varje token vid nätverkets uppstartande eller under nätverkets arbete på så sätt att de tokens som delar samma hemnod alltid definierar en « . . . .- 1 § . . -ø n -f- W Ü 20 25 30 . 1 - . .u 515 407 åtminstone delvis oavbruten grupp av kontinuerliga tidluckor, P - lediga tokens återsänds till sina respektive hemnoder när en betydande tid har passerat, och - två eller flera åtföljande tokens som representerar samma grupp av tidluckor sammansmälts till ett enda token när de existerar i en nods lediga pool. 6. Plan för återanvändning av tidluckor enligt kravet 5, kännetecknad av att två eller flera tokens med samma räckvidd av tidluckor eller segment, sammanslås till ett enda token när de existerar i en nods lediga pool. 7. Plan för återanvändning av tidluckor enligt kravet 6, kännetecknad av att när sammansmältning sker av luck- och/eller segmentåtföljande tokens som har samma luck- eller segment räckvidd, prioriteras alltid en segment- sammanslagning före en luck-antalssammansmältning, även om antalet tokens ökar. 8. Plan för återanvändning av tidluckor enligt något av kraven 1 - 7, kännetecknad av att när en nod får en begäran om tokens från en lokal användare eller en avlägsen användare, väljs ett token från token poolen med hjälp av en algoritm för bästa möjliga anpassning vad avser antalet och ur denna tidluckor och segmentlängd, algoritm väljs det token som har det minsta området i token kartan och som kan tillgodose den begärda kapaciteten. 9. Plan för återanvändning av tidluckor enligt något av kraven 1 - 7, kännetecknad av att när en nod behöver begära ett token från andra noder och inget token finns som kan tillgodose den begärda kapaciteten, minimeras antalet tokens som är förhandsrekvirerade. 10. genomströmning i ett DTM (Dynamic Synchronous Transfer Mode) Plan för återanvändning av tidluckor för ökning av nätverk, kännetecknad av att den omfattar . | , . 1 n 11 x.. h. 1 1| v nu s 1 1 .1 1 a v 1 1 35 1 1 1 V 1. 1 11 H1 . . 1 1 1 110 15 20 25 30. - - - <- .. ..- 34 515 407 PATENT REQUIREMENTS l. Plan for reusing time slots for increasing throughput in a DTM (Dynamic Synchronous Transfer Mode) network, characterized by - that the DTM block token format is extended so that it includes parameters describing the segment (s) between the source and destination nodes, - that the block token capacity is reserved only for the segment (s) between the source and destination nodes, - that two or more tokens representing the same time slots for the accompanying segment are merged into one single token when they exist within a node's free pole, and - that simultaneous transmissions within the same slot over separate segments within the network are made possible. Schedule for reuse of time slots according to claim 1, characterized in that it is implemented with a centralized method for administering tokens. Schedule for reuse of time slots according to claim 1, characterized in that it is implemented with a distributed method for administering tokens. A plan for reusing time slots according to claim 1, characterized in that it is implemented in a system for managing resources, which combines the centralized and the distributed models, and thereby uses a small set of token server nodes. Schedule for reuse of time slots according to one of Claims 1 to 4, characterized in that it is combined with a defragmentation method, in which - a home node is defined for each token at the start-up of the network or during the work of the network in such a way that the tokens share the same home node always defines a «. . . .- 1 §. . -ø n -f- W Ü 20 25 30. 1 -. .u 515 407 at least partially uninterrupted group of continuous time slots, P - free tokens are returned to their respective home nodes when a significant time has elapsed, and - two or more successive tokens representing the same group of time slots are merged into a single token when they exist in a node free pool. Time slot reuse plan according to claim 5, characterized in that two or more tokens with the same range of time slots or segments are merged into a single token when they exist in a node's free pool. Schedule for reuse of time slots according to claim 6, characterized in that when merging of slots and / or segment-accompanying tokens that have the same slot or segment range, a segment merging is always prioritized before a slot number merging, even if the number of tokens increases. Time slot reuse plan according to one of Claims 1 to 7, characterized in that when a node receives a request for tokens from a local user or a remote user, a token is selected from the token pool by means of an algorithm for the best possible adaptation. in terms of the number and from this time slots and segment length, the algorithm selects the token that has the smallest area in the token map and that can satisfy the requested capacity. Time slot reuse plan according to one of Claims 1 to 7, characterized in that when a node needs to request a token from other nodes and there is no token that can satisfy the requested capacity, the number of tokens that are pre-requisitioned is minimized. Throughput in a DTM (Dynamic Synchronous Transfer Mode) Plan for reusing time slots for network augmentation, characterized in that it includes. | ,. 1 n 11 x .. h. 1 1 | v nu s 1 1 .1 1 a v 1 1 35 1 1 1 V 1. 1 11 H1. . 1 1 1 1 1. 111 10 »a w-n 515 407 - ett förlängt DTM block token format, inklusive parametrar som beskriver segment(en) mellan käll- och destinationsnod, - noder som är arrangerade så att de kan reservera block token kapacitet endast på segment(en) mellan käll- och destinationsnod, - två eller flera tokens som representerar samma tidluckor för åtföljande segment och existerar inom en nods lediga pol är sammanslagna till ett enda token, och - möjliggörandet av simultana transmissioner inom samma lucka över åtskilda segment i nätverket. , -- v .q u n ; u p. «-.» »I .1 , I. u 1.- : v I n . . . - ; u 36 a a n i s; n .a m. . ~ . . -I1. 111 10 »a wn 515 407 - an extended DTM block token format, including parameters describing segment (s) between source and destination node, - nodes arranged to reserve block token capacity only on segment (s) between source and destination nodes, - two or more tokens representing the same time slots for accompanying segments and existing within a node's free pole are merged into a single token, and - enabling simultaneous transmissions within the same slot across separate segments of the network. , - v .q u n; u p. «-.» »I .1, I. u 1.-: v I n. . . -; u 36 a a n i s; n .a m. ~. . -IN
SE9504679A 1995-12-28 1995-12-28 Slot reuse method for increasing throughput in DTM network SE515407C2 (en)

Priority Applications (10)

Application Number Priority Date Filing Date Title
SE9504679A SE515407C2 (en) 1995-12-28 1995-12-28 Slot reuse method for increasing throughput in DTM network
US08/757,347 US5838687A (en) 1995-12-28 1996-11-27 Slot reuse method and arrangement
AU14039/97A AU1403997A (en) 1995-12-28 1996-12-23 Method and arrangement for slot reuse in a dynamic synchronous transfer mode network
PCT/SE1996/001748 WO1997024844A1 (en) 1995-12-28 1996-12-23 Method and arrangement for slot reuse in a dynamic synchronous transfer mode network
JP09524273A JP2000502854A (en) 1995-12-28 1996-12-23 Slot reuse method and apparatus in dynamic synchronous transfer mode network
CA002237684A CA2237684A1 (en) 1995-12-28 1996-12-23 Method and arrangement for slot reuse in a dynamic synchronous transfer mode network
EP96944171A EP0873627A1 (en) 1995-12-28 1996-12-23 Method and arrangement for slot reuse in a dynamic synchronous transfer mode network
US09/058,720 US5946315A (en) 1995-12-28 1998-04-10 Method and device for synchronizing dynamic synchronous transfer mode in a ring topology
US09/062,524 US6108338A (en) 1995-12-28 1998-04-17 Method and device for dynamic synchronous transfer mode in a dual ring topology
US09/067,350 US5982747A (en) 1995-12-28 1998-04-27 Method for managing failures on dynamic synchronous transfer mode dual ring topologies

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
SE9504679A SE515407C2 (en) 1995-12-28 1995-12-28 Slot reuse method for increasing throughput in DTM network

Publications (3)

Publication Number Publication Date
SE9504679D0 SE9504679D0 (en) 1995-12-28
SE9504679L SE9504679L (en) 1997-06-29
SE515407C2 true SE515407C2 (en) 2001-07-30

Family

ID=20400755

Family Applications (1)

Application Number Title Priority Date Filing Date
SE9504679A SE515407C2 (en) 1995-12-28 1995-12-28 Slot reuse method for increasing throughput in DTM network

Country Status (2)

Country Link
JP (1) JP2000502854A (en)
SE (1) SE515407C2 (en)

Also Published As

Publication number Publication date
SE9504679D0 (en) 1995-12-28
JP2000502854A (en) 2000-03-07
SE9504679L (en) 1997-06-29

Similar Documents

Publication Publication Date Title
EP0873629B1 (en) Method and arrangement for network resource administration
EP0166765B1 (en) Arrangement for routing data packets through a circuit switch
US7283472B2 (en) Priority-based efficient fair queuing for quality of service classification for packet processing
US5982747A (en) Method for managing failures on dynamic synchronous transfer mode dual ring topologies
US7092359B2 (en) Method for distributing the data-traffic load on a communication network and a communication network for implementing this method
SE514485C2 (en) Procedures and arrangements for defragmentation
US5838687A (en) Slot reuse method and arrangement
US6683869B1 (en) Method and system for implementing an improved DSO switching capability in a data switch
EP0838970A2 (en) Method for shared memory management in network nodes
WO2005002154A1 (en) Hierarchy tree-based quality of service classification for packet processing
US7339953B2 (en) Surplus redistribution for quality of service classification for packet processing
CA2191375C (en) System and method for capacity management in multi-service networks
SE515407C2 (en) Slot reuse method for increasing throughput in DTM network
Ramfelt Performance Analysis of Slot Management in DTM Networks
Chang et al. Performance evaluation of DTM access nodes
Reed et al. Packet routing algorithms for integrated switching networks
Kaario et al. Dimensioning of a multimedia switching bus
Chang Performance modeling and evaluation of an MPLS architecture using the DTM technology
Makhamreh Modeling and analysis of packet switch architectures for broadband ISDN.

Legal Events

Date Code Title Description
NUG Patent has lapsed